AI Act and Large Language Models (LLMs): When critical issues and privacy impact require human and ethical oversight
Nicola Fabiano | arXiv:2404.00600 [cs.CY]
AI、特に大規模言語モデル(LLM)の急速な進化によりリスクと、プライバシー、個人データ保護、倫理的レベル、人々への影響について評価が必要です。
AI法の概要
2024年3月13日、ヨーロッパ議会はAI法を承認しました。これは初の包括的なAI立法で、180の前文、113条の条文、13の付属文書を含んでいます。
AI法4段階の実施フェーズ
- 施行後6ヶ月:第I章および第II章(一般規定および禁止されたAI慣行)
- 12ヶ月:第III、V、VII、およびXII章、一部の例外を除く
- 24ヶ月:すべての規則が適用
- 36ヶ月:第6条(1)に基づく高リスクAIシステムに関する特定の義務
AIシステムの定義
AI法は、OECDのものとは異なる、幅広いAIシステムの定義を採用。AIシステムはマシンベースで、自律性にバリエーションがあり、影響力のあるアウトプットを生成できるものとしています。高リスクAIシステムを分類し、安全コンポーネント、第三者の適合性評価などに焦点を当てます。
人間の監督
AI法では、高リスクAIシステムにおいて、人間の監督が必要であることが規定されています。これには、使用中に自然人によって効果的に監視されるように設計・開発されるべきという要件が含まれます。主な目的は、健康、安全、基本的人権へのリスクを防止または最小化することです。
大規模言語モデル(LLM)の紹介
LLMは、テキスト、画像、オーディオなど幅広い出力を生成できるAIモデルとして定義されています。例として、OpenAIのGPT-4、GoogleのBERT、Open AIのDALL-Eなどが挙げられます。
LLMの限界、リスク、問題点
著作権の違反、内容の誤り、文法や構文のエラーなどの問題を含むリスクがあります。「ハルシネーション」と呼ばれる現象では、モデルが不正確、無意味、または非現実的なテキストを生成することがあります。
法律業界におけるLLMの使用
一部の弁護士がLLMの出力を検証せずに使用し、職業的な問題を引き起こした事例がいくつかあります。これらは、AIシステムとLLMに関する知識の欠如を示しています。
LLMと人間の監督
リスクが伴うため、LLMの出力の使用において人間の監督が必要です。特に、健康やバイオメトリックデータを使用するセンシティブな領域で使用される場合、特定のポリシーを採用することを含め人間の監督が必要になる可能性があります。
LLMと倫理的監督
AI法は倫理的原則の遵守を要求しており、倫理的監督も必要です。これには、バイアスの緩和や脆弱性に焦点を当てた認証スキームの開発などが含まれます。
LLMとデータ保護影響評価(DPIA)
LLMは個人データに影響を与える可能性があり、DPIAを実施することが適切であると考えられます。
人工知能の責任
AIによって引き起こされる損害に対する責任について、マシンラーニングやAI自体に法的責任を認めることは難しいため、現在この問題はオープンであり議論されています。
結論
LLMは、人間の監督、倫理的監督、およびデータ保護影響評価が必要なリスクを伴う高度に進化したAIシステムです。これらのモデルは、直接使用されるか、他のAIシステムによって使用されるかにかかわらず、特に倫理的な側面を考慮に入れながら慎重に管理されるべきです。