コンテンツにスキップ

「利用者:消費者保護系編集者/sandbox」の版間の差分

削除された内容 追加された内容
編集の要約なし
タグ: 差し戻し済み
ページの置換: 「sandbox」
タグ: 置換 手動差し戻し
1行目: 1行目:
sandbox
{{Pathnavbox|
*{{Pathnav|[[プライバシー]]|[[情報セキュリティのガイドライン、標準規格、法制度等の一覧|ガイドライン、標準規格、法制度等]]}}
*{{Pathnav|[[欧州連合]]|[[規則 (EU)|規則]]}}
}}
{{law|地域=[[欧州連合]]}}
{{Infobox EU legislation
| number =
| type = Regulation
| EEA =
| title =
| madeby =
| madeunder =
| OJrefurl =
| OJref =
| made =
| implementation =
| application =
| CommProp = 2021/206
| ESCOpin =
| CROpin =
| ParlOpin =
| Reports =
| replaces =
| amends =
| amendedby =
| replacedby =
| status =
}}
'''AI法'''('''人工知能法''' 英:'''The Artificial Intelligence Act''' ('''AI Act''')) は、[[欧州連合]]における[[人工知能]] (AI) に関する欧州連合の規制法。 2021年4月21日に[[欧州委員会]]によって提案され<ref>{{Cite web |title=EUR-Lex - 52021PC0206 - EN - EUR-Lex |url=https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206 |url-status=live |archive-url=https://web.archive.org/web/20210823212239/https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206 |archive-date=23 August 2021 |access-date=2021-09-07 |website=eur-lex.europa.eu}}</ref>、2024年3月13日に可決された<ref>{{cite web |title=World’s first major act to regulate AI passed by European lawmakers |url=https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html |access-date=13 March 2024 |date=14 March 2024 |work=CNBC}}</ref>。この法律は、AIに関する共通の規制および法的枠組みを確立することを目的とする<ref>{{cite web |title=Proposal for a Regulation laying down harmonised rules on artificial intelligence {{!}} Shaping Europe's digital future |url=https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence |website=digital-strategy.ec.europa.eu |date=21 April 2021 |access-date=2023-01-09 |language=en |archive-date=4 January 2023 |archive-url=https://web.archive.org/web/20230104120436/https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence |url-status=live }}</ref>。
その範囲には、幅広い分野のあらゆる種類のAIが含まれる([[軍事]]、[[国家安全保障]]、[[研究]]、および非専門的目的のみに使用されるAIは例外<ref>{{Cite news |date=9 December 2023 |title=Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world |url=https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ |access-date=January 6, 2024 |work=Council of the EU |archive-date=10 January 2024 |archive-url=https://web.archive.org/web/20240110092304/https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ |url-status=live }}</ref>)。製品規制の一環としてAIのプロバイダや、専門的な用途でAIを使用する団体を規制する<ref name=":4">{{Cite web |last=Mueller |first=Benjamin |date=2021-05-04 |title=The Artificial Intelligence Act: A Quick Explainer |url=https://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/ |access-date=2024-01-06 |website=Center for Data Innovation |language=en-US |archive-date=14 October 2022 |archive-url=https://web.archive.org/web/20221014172842/http://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/ |url-status=live }}</ref>。

AI法は、損害を引き起こす[[リスク]]に基づいてAIアプリケーションを分類し、規制することを目的とする。この分類には、リスクの4つのカテゴリ (「許容できない」、「高」、「限定的」、「最小限」) に加えて、汎用目的AI向けの1つの追加カテゴリが含まれる。許容できないリスクがあるとみなされるアプリケーションは禁止され、高リスクのものはセキュリティ、透明性、品質に関する義務を遵守し、適合性評価を受ける必要がある。限定的リスクのAIアプリケーションには透明性の義務のみがあり、最小限のリスクを表すものは規制されない。汎用目的のAIには透明性要件が課され、特に高いリスクを表す場合には追加の厳しい評価が行われる<ref name=":1">{{Cite web |last=Espinoza |first=Javier |date=December 9, 2023 |title=EU agrees landmark rules on artificial intelligence |url=https://www.ft.com/content/d5bec462-d948-4437-aab1-e6505031a303 |access-date=2024-01-06 |website=Financial Times |archive-date=29 December 2023 |archive-url=https://web.archive.org/web/20231229130308/https://www.ft.com/content/d5bec462-d948-4437-aab1-e6505031a303 |url-status=live }}</ref><ref name=":2">{{Cite news |title=EU AI Act: first regulation on artificial intelligence |url=https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |access-date=2024-01-06 |work=European Parliament News |language=en |archive-date=10 January 2024 |archive-url=https://web.archive.org/web/20240110162551/https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence |url-status=live }}</ref>。

== リスクカテゴリ ==
アプリケーションの種類に応じてさまざまなリスクカテゴリがあり、特に汎用目的の生成AIに特化したリスクカテゴリがある。

*許容できないリスク(英:Unacceptable risk):このカテゴリに該当するAIアプリケーションは禁止される。これには人間の行動を操作するAI、公共の場で顔認識を含むリアルタイムのリモート生体認証を使用するAI、および個人の特徴、社会経済的地位、または行動に基づいて人々をランク付けする[[ソーシャルスコアリング]]に使用されるAIが含まれる<ref name=":2" /> 。

*高リスク(英:High-risk): [[健康]]、[[安全]]、または[[基本的人権]]に重大な脅威をもたらすAIアプリケーション。特に、[[医療]]、[[教育]]、人材採用、重要インフラ管理、[[行政]]、[[司法]]分野で使用されるAIが含まれる。品質、透明性、人間による監督、セキュリティの義務の���象となる。市場に投入される前だけでなく、投入後にも評価される必要がある<ref name=":2" />。また、高リスクアプリケーションのリストは、AI法自体を修正することなく拡張できる<ref name=":4" />。

*汎用AI(英:General-purpose AI)(GPAI): このカテゴリは2023年に追加され、特に[[ChatGPT]]などの基盤モデルが含まれる。これらは透明性要件の対象となる。システムリスクを引き起こす可能性がある影響の大きい汎用目的AIシステム (特に、1025[[FLOPS]]を超える計算能力を使用してトレーニングされたもの<ref name=":3">{{Cite web |last=Bertuzzi |first=Luca |date=2023-12-07 |title=AI Act: EU policymakers nail down rules on AI models, butt heads on law enforcement |url=https://www.euractiv.com/section/artificial-intelligence/news/ai-act-eu-policymakers-nail-down-rules-on-ai-models-butt-heads-on-law-enforcement/ |access-date=2024-01-06 |website=Euractiv |language=en-GB |archive-date=8 January 2024 |archive-url=https://web.archive.org/web/20240108215257/https://www.euractiv.com/section/artificial-intelligence/news/ai-act-eu-policymakers-nail-down-rules-on-ai-models-butt-heads-on-law-enforcement/ |url-status=live }}</ref>) は徹底的な評価プロセスを受ける必要がある<ref name=":2" />。

*限定的なリスク(英:Limited risk):これに分類されるシステムは人工知能システムと対話している��とをユーザーに通知し、ユーザーが選択を行えるようにすることを目的とした透明性義務の対象となる。このカテゴリには、画像、音声、または映像([[ディープフェイク]]など)の[[生成AI]]が含まれる<ref name=":2" />。このカテゴリではパラメータが公開されている無料および[[オープンソース]]のモデルに対しては、一部例外とする規定が設けられた<ref name=":3" /><ref>{{cite web |title=Regulating Chatbots and Deepfakes |url=https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/regulating-chatbots-and-deepfakes-under-the-eu-ai-act |website=mhc.ie |publisher=Mason Hayes & Curran |language=en |access-date=11 January 2024 |archive-date=9 January 2024 |archive-url=https://web.archive.org/web/20240109141128/https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/regulating-chatbots-and-deepfakes-under-the-eu-ai-act |url-status=live }}</ref>。

*最小限のリスク(英:Minimal risk):これには[[ゲーム]]や[[スパムフィルタ]]に使用されるAIシステムなどが含まれる。ほとんどのAIはこのカテゴリに入る<ref>{{Cite web |last=Liboreiro |first=Jorge |date=2021-04-21 |title='Higher risk, stricter rules': EU's new artificial intelligence rules |url=https://www.euronews.com/my-europe/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige |access-date=2024-01-06 |website=Euronews |language=en |archive-date=6 January 2024 |archive-url=https://web.archive.org/web/20240106182629/https://www.euronews.com/my-europe/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige |url-status=live }}</ref>。これは規制の対象とならず、加盟国は{{仮リンク|最大調和規定|en|Maximum harmonisation}}により、追加の規制は禁止される。このようなシステムの設計または利用に関連する既存の国内法は適用の対象にならない。ただし、自主規制が提案されている<ref name="Veale 20212">{{Cite journal |last=Veale |first=Michael |date=2021 |title=Demystifying the Draft EU Artificial Intelligence Act |journal=Computer Law Review International |volume=22 |issue=4 |arxiv=2107.03721 |doi=10.31235/osf.io/38p5f |s2cid=241559535}}</ref>。

== 関連項目 ==
* [[人工知能の倫理]]
* [[人工知能の規制]]
* [[アルゴリズムバイアス]]

== 参考文献 ==
{{reflist|40em}}

== 外部リンク ==

{{Normdaten}}
{{DEFAULTSORT:ええあいほう}}
[[Category:人工知能]]
[[Category:情報法]]
[[Category:プライバシー法]]

2024年3月21日 (木) 09:24時点における版

sandbox