ヨーロッパ議会 AI 法と大規模言語モデル (LLM)

AI Act and Large Language Models (LLMs): When critical issues and privacy impact require human and ethical oversight

Nicola Fabiano | arXiv:2404.00600 [cs.CY]

AI、特に大規模言語モデル(LLM)の急速な進化によりリスクと、プライバシー、個人データ保護、倫理的レベル、人々への影響について評価が必要です。

AI法の概要

2024年3月13日、ヨーロッパ議会はAI法を承認しました。これは初の包括的なAI立法で、180の前文、113条の条文、13の付属文書を含んでいます。

AI法4段階の実施フェーズ

  • 施行後6ヶ月:第I章および第II章(一般規定および禁止されたAI慣行)
  • 12ヶ月:第III、V、VII、およびXII章、一部の例外を除く
  • 24ヶ月:すべての規則が適用
  • 36ヶ月:第6条(1)に基づく高リスクAIシステムに関する特定の義務

AIシステムの定義

AI法は、OECDのものとは異なる、幅広いAIシステムの定義を採用。AIシステムはマシンベースで、自律性にバリエーションがあり、影響力のあるアウトプットを生成できるものとしています。高リスクAIシステムを分類し、安全コンポーネント、第三者の適合性評価などに焦点を当てます。

人間の監督

AI法では、高リスクAIシステムにおいて、人間の監督が必要であることが規定されています。これには、使用中に自然人によって効果的に監視されるように設計・開発されるべきという要件が含まれます。主な目的は、健康、安全、基本的人権へのリスクを防止または最小化することです。

大規模言語モデル(LLM)の紹介

LLMは、テキスト、画像、オーディオなど幅広い出力を生成できるAIモデルとして定義されています。例として、OpenAIのGPT-4、GoogleのBERT、Open AIのDALL-Eなどが挙げられます。

LLMの限界、リスク、問題点

著作権の違反、内容の誤り、文法や構文のエラーなどの問題を含むリスクがあります。「ハルシネーション」と呼ばれる現象では、モデルが不正確、無意味、または非現実的なテキストを生成することがあります。

法律業界におけるLLMの使用

一部の弁護士がLLMの出力を検証せずに使用し、職業的な問題を引き起こした事例がいくつかあります。これらは、AIシステムとLLMに関する知識の欠如を示しています。

LLMと人間の監督

リスクが伴うため、LLMの出力の使用において人間の監督が必要です。特に、健康やバイオメトリックデータを使用するセンシティブな領域で使用される場合、特定のポリシーを採用することを含め人間の監督が必要になる可能性があります。

LLMと倫理的監督

AI法は倫理的原則の遵守を要求しており、倫理的監督も必要です。これには、バイアスの緩和や脆弱性に焦点を当てた認証スキームの開発などが含まれます。

LLMとデータ保護影響評価(DPIA)

LLMは個人データに影響を与える可能性があり、DPIAを実施することが適切であると考えられます。

人工知能の責任

AIによって引き起こされる損害に対する責任について、マシンラーニングやAI自体に法的責任を認めることは難しいため、現在この問題はオープンであり議論されています。

結論

LLMは、人間の監督、倫理的監督、およびデータ保護影響評価が必要なリスクを伴う高度に進化したAIシステムです。これらのモデルは、直接使用されるか、他のAIシステムによって使用されるかにかかわらず、特に倫理的な側面を考慮に入れながら慎重に管理されるべきです。

投稿者: 二本松 哲也

SPbD:Security&Privacy by Design Founder ー OWASP Member ー ITは人々の生活をあらゆる面でより良い方向に変化させること ー 競争原理から共創原理へ