英国の公共部門はすでに想像以上に AI を活用しています
ブリストル大学経済法教授兼グローバル法イノベーションセンター共同所長
アルバート・サンチェス・グラエルズは英国アカデミーから資金提供を受けました。 彼はアカデミーの 2022 年度中堅フェロー (MCFSS22\220033、127,125.58 ポンド) の 1 人です。 ただし、彼の研究と見解は英国アカデミーに帰属するものではありません。
ブリストル大学は、The Conversation UK の創設パートナーとして資金を提供しています。
すべてのパートナーを表示
テキスト生成ツール ChatGPT のような人工知能 (AI) 製品の急速な台頭により、政治家、テクノロジーリーダー、アーティスト、研究者は懸念を抱いています。 一方、支持者らはAIが医療、教育、持続可能なエネルギーなどの分野で生活を改善できる可能性があると主張している。
英国政府はAIを日常業務に組み込むことに熱心で、2021年にはそれを実現するための国家戦略を策定する。戦略によると、その目的は「先頭に立って先頭に立ち、世界において模範を示すこと」だという。 AI の安全かつ倫理的な展開」。
AI には、特に個人の権利と差別に関してリスクがないわけではありません。 これらのリスクは政府も認識しているが、最近の政策白書では政府がAI規制の強化に消極的であることが示されている。 これなしで「安全で倫理的な展開」をどのように達成できるかを想像するのは困難です。
他国の証拠は、公共部門で AI を使用することのマイナス面を示しています。 オランダの多くの人は、福祉詐欺を検出するための機械学習の使用に関連したスキャンダルに今も動揺している。 アルゴリズムにより、児童手当詐欺で数千人の親が誤って告発されていたことが判明した。 伝えられるところによると、全国の都市は依然としてこのようなテクノロジーを利用して、低所得地域を標的にして詐欺調査を行っており、人々の福祉に壊滅的な影響を及ぼしているという。
スペインでの調査により、人々が傷病手当金詐欺を行っているかどうかを判断するために使用されるソフトウェアに欠陥があったことが明らかになった。 そしてイタリアでは、欠陥のあるアルゴリズムにより、切望されている資格のある教師が求人から除外された。 同社は、彼らの履歴書を別の適切な求人に合わせるのではなく、1 つの仕事だけを検討した後、完全に拒否しました。
公共部門の AI への依存は、サイバーセキュリティのリスクや、NHS やその他の重要な公共サービスをサポートする重要なインフラストラクチャの脆弱性につながる可能性もあります。
こうしたリスクを考慮すると、AI の使用について政府が透明性を保っていると国民が信頼できることが重要です。 しかし、政府は概してこの件についての詳細を明らかにするのが非常に遅いか、消極的であり、これについては公共生活の基準に関する議会委員会が厳しく批判している。
政府のデータ倫理イノベーションセンターは、人々に影響を与える重要な意思決定における AI の使用をすべて公表することを推奨しました。 その後、政府は世界初のアルゴリズム透明性基準の 1 つを開発し、組織が AI ツールの使用方法とその仕組みに関する情報を一般に公開することを奨励しました。 この一環として、中央リポジトリに情報を記録することが含まれます。
しかし、政府はその使用を任意とした。 これまでのところ、AI 使用の詳細を明らかにしている公共部門組織は 6 つだけです。
法律慈善団体 Public Law Project は最近、英国の公共部門における AI の使用が公式の開示情報よりもはるかに広範囲に広がっていることを示すデータベースを立ち上げました。 情報公開請求を通じて、追跡自動政府 (TAG) 登録簿は、これまでに AI を使用して公共部門の 42 件を追跡しました。
ツールの多くは、偽装結婚や公金に対する詐欺の検出など、不正行為の検出や移民の意思決定に関連しています。 英国の地方議会のほぼ半数も、住宅手当へのアクセスを優先するために AI を活用しています。
刑務所職員はアルゴリズムを使用して、新たに有罪判決を受けた囚人をリスクカテゴリーに割り当てています。 いくつかの警察は、AI を使用して同様のリスク スコアを割り当てたり、AI ベースの顔認識を試行したりしています。
TAG 登録が公共部門での AI の使用を宣伝したという事実は、必ずしもツールが有害であることを意味するわけではありません。 しかし、ほとんどの場合、データベースには次の注記が追加されます。「公的機関は、このツールによってもたらされる特定のリスクを適切に理解できるほど十分な情報を開示していません。」 AI がどのように使用されているかが明らかでない場合、これらの決定に影響を受ける人々は、その決定に異議を唱える立場にはほとんどありません。
2018 年データ保護法に基づき、人々は法的または同様に重大な影響を与える自動化された意思決定について説明を受ける権利を有します。 しかし、政府はこれらの権利も削減することを提案している。 そして、現在の形であっても、差別的なアルゴリズムによる意思決定がもたらす広範な社会的影響に対処するには十分ではありません。
政府は、2023年3月に発行した白書でAI規制に対する「イノベーション推進」のアプローチを詳しく説明し、安全性、透明性、公平性などAI規制の5原則を定めている。
同紙は、政府が新たなAI規制当局を創設する計画はなく、当面は新たなAI法は制定されず、その代わりに既存の規制当局に対し、より詳細なガイダンスの策定を課すことを確認した。
また、これまでのところわずか 6 つの組織がそれを使用しているにもかかわらず、政府は、開発した透明性標準と中央リポジトリの使用を義務付けるつもりはありません。 また、公的機関に AI の使用許可の申請を義務付ける予定もありません。
透明性や規制がなければ、安全で非倫理的な AI の使用を特定するのは難しく、実際に害を及ぼした後に初めて発覚する可能性が高くなります。 そして、人々に追加の権利がなければ、公共部門の AI 使用に反対したり、補償を請求したりすることも困難になります。
続きを読む: 英国は AI 規制でつまづくとハイテクの成長を失うリスクがある
簡単に言えば、AIに対する政府のイノベーション推進アプローチには、「AIの安全かつ倫理的な導入において前線から先導し、模範を示す」という使命を確実に達成するためのツールが含まれていないということである。英国はAIの危険を制限するための「ガードレール」をリードするだろう。
公共部門が自らを規制したり、テクノロジー企業に安全性や透明性の要件を課したりすることに国民が期待を寄せるには、賭け金が高すぎる。
私の考えでは、適切な AI ガバナンスに取り組む政府は、公共部門における AI の利用を監督するための、十分なリソースを備えた専任の当局を創設することになるでしょう。 社会は、政府が適切と考える AI を使用するために白紙のチェックを延長することはほとんどできません。 しかし、政府はそれを期待しているようだ。
英国の公共部門はすでに、皆さんが思っている以上に AI を活用しています – 監視なしではそのリスクを理解することは不可能です 続きを読む: AI 規制でつまづくと英国はハイテク成長を失うリスクがある