ヨーロッパでAIの規制案を議論、権利や生活を脅かす使用法を禁止する方針
ヨーロッパでは現在、人工知能(AI)の「受け入れがたい使用」を禁止する、規制案が提出され、議論されている。
顔認証システムも制限
欧州委員会で進められている、AIに関する規制案の内容は、4月21日に明らかにされた。
提案された規則は、「人々の権利や生活、安全を明らかに脅かすと考えられる(ハイリスクな)AIシステムを禁止」にするというもの。
また同時に、法執行機関によって使われている、顔認証システムのような生体認証も、より厳格なルールが適用され、制限されることになるという。
そしてもし、この規則を破った場合、最大で売上高の6%相当の罰金が科せられ、最大手のテクノロジー企業にあてはめると、罰金は数十億ドルに達する可能性があるそうだ。
「信頼は必要不可欠」
EUはAIに関して新しいグローバルな規範を作ろうとしているが、この草案に関しては長期にわたる承認プロセスに直面しており、まだ最終的なものではない。
EUのデジタル部門責任者であるMargrethe Vestager氏は、次のように述べている。
「人工知能の分野では、信頼は、あったほうがいいものではなく、必要不可欠なものです。(略)将来性があり、イノベーションに優しい私たちのルールは、EU市民の安全と基本的権利が危機に瀕している場合、厳密に必要なところに介入します」
「ハイリスクの定義が曖昧」
ただ企業の従業員教育用AIを開発しているSoffos.ai社のCEO・Nikolas Kairinos氏は、今回のAI規制案について。次のように述べている。
「欧州委員会が提案している体制は、業界の多くの人々にとって好ましいものではないでしょう・『ハイリスク』というような緩い定義は、役に立たないほど曖昧です。AI技術を深く理解していない人が監督する、曖昧でチェックボックスのような規制のアプローチは、信頼を得ることはできません」
また、法律事務所「Clifford Chance」のテクノロジー専門家であるHerbert Swaniker氏は、提案されている高額な罰金は、AI規制に大きな力を与えているとした上で、次のように述べている。
「これらの概念をより明確にするためには、やるべきことがたくさんあります。(略)今回の提案により、販売する企業はAIの調達方法や設計方法を根本的に見直さなければならなくなるでしょう」
具体的に規制・禁止されるもの
具体的には、どのようなシステムが「ハイリスク」と評価されるのだろうか。
まず、「サブリミナル技術」を含む「ユーザーの自由意志を介さないようにするため、人間の行動を操作するAIシステムまたはアプリケーション」は、禁止された「許容できないリスク」のカテゴリーに入るという。
また国のインフラ、教育、雇用、金融、法執行機関なども、リスクの高い分野とされ、そこで運用されるものは、使用する前に一連のハードルが課せられるそうだ。
例えば、採用時の履歴書選別ソフトウェアや、銀行融資のための信用スコアリングシステムなどは、次のような条件を満たさなければならない。
●正確さと公正さを証明すること
●すべての活動の記録を残す
●人間による適切な監視
さらに、警察では顔認証を行っているが、携帯電話のロック解除に指紋を使用したり、パスポート審査で顔をスキャンしたりすることはできないなど、すべての「遠隔生体認証」システムは、「厳格な要件」に従うことになるという。(了)
出典元:BBC:EU artificial intelligence rules will ban ‘unacceptable’ use(4/21)