コンテンツにスキップ

「利用者:消費者保護系編集者/sandbox」の版間の差分

削除された内容 追加された内容
ページの置換: 「sandbox」
タグ: 置換 手動差し戻し
編集の要約なし
タグ: 差し戻し済み 曖昧さ回避ページへのリンク
1行目: 1行目:
{{About|プロンプトに応答してテキストや画像を生成する人工知能システム|統計的分類の文脈における生成モデル|生成的モデル|さまざまな知的作業を実行する人工知能|汎用人工知能}}
sandbox
{{表記揺れ案内|表記1=生成系人工知能<ref>{{Cite web|和書|title=生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について |url=https://utelecon.adm.u-tokyo.ac.jp/docs/20230403-generative-ai |website=utelecon |access-date=2023-07-01}}</ref><ref>{{Cite web|和書|title=生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte |url=https://www2.deloitte.com/jp/ja/pages/institute/articles/generative-artificial-intelligence.html |website=デロイト・メンバーファーム |access-date=2023-07-01}}</ref>|表記2=生成型人工知能<ref>{{Cite web|和書|title=Nature読者のChatGPT利用法 {{!}} Nature ダイジェスト {{!}} Nature Portfolio |url=https://www.natureasia.com/ja-jp/ndigest/v20/n5/Nature%E8%AA%AD%E8%80%85%E3%81%AEChatGPT%E5%88%A9%E7%94%A8%E6%B3%95/120512 |website=www.natureasia.com |access-date=2023-07-01}}</ref><ref>{{Cite web|和書|title=生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン |url=https://kpmg.com/jp/ja/home/insights/2023/05/generative-ai-risk.html |website=KPMG |date=2023-05-30 |access-date=2023-07-01}}</ref>}}
[[File:Théâtre D’opéra Spatial.png|thumb|[[:en:Théâtre_d'Opéra_Spatial|'''スペース・オペラ・シアター''']]'''(Théâtre d'Opéra Spatial)、[[Midjourney]]によって作成された画像'''|alt=A detailed oil painting of figures in a futuristic opera scene]]
'''生成的人工知能'''(せいせいてきじんこうちのう、{{Lang-en-short|generative artificial intelligence}})または'''生成AI'''(せいせいエーアイ、{{Lang-en-short|GenAI}}<ref name="TECHBLITZ" />)は、文字などの入力([[プロンプトエンジニアリング|プロンプト]])対して[[テキスト]]、[[画像]]、または他の[[メディア]]を応答として生成する[[人工知能]]システムの一種である<ref name="nytimes">{{Cite web |url=https://www.nytimes.com/2023/01/27/technology/anthropic-ai-funding.html |title=Anthropic Said to Be Closing In on $300 Million in New A.I. Funding |last1=Griffith |first1=Erin |last2=Metz |first2=Cade |date=2023-01-27 |work=[[:en:The New York Times]] |accessdate=2023-03-14}}</ref><ref name="bloomberg">{{Cite news |last1=Lanxon |first1=Nate |last2=Bass |first2=Dina |last3=Davalos |first3=Jackie |title=A Cheat Sheet to AI Buzzwords and Their Meanings |url=https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake |access-date=March 14, 2023 |newspaper=Bloomberg News |date=March 10, 2023 |location=}}</ref>。

生成的人工知能モデルは、[[訓練、検証、テスト用のデータセット|訓練データ]]の規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる<ref>{{Cite news |last=Pasick |first=Adam |date=2023-03-27 |title=Artificial Intelligence Glossary: Neural Networks and Other Terms Explained |language=en-US |work=The New York Times |url=https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html |access-date=2023-04-22 |issn=0362-4331}}</ref><ref>{{cite web |url=https://openai.com/research/generative-models |title=Generative models |author1=Andrej Karpathy |author2=Pieter Abbeel |author3=Greg Brockman |author4=Peter Chen |author5=Vicki Cheung |author6=Yan Duan |author7=Ian Goodfellow |author8=Durk Kingma |author9=Jonathan Ho |author10=Rein Houthooft |author11=Tim Salimans |author12=John Schulman |author13=Ilya Sutskever |author14=Wojciech Zaremba |date=2016-06-16 |website=OpenAI |access-date=2023-05-20}}</ref>。'''ジェネレーティブAI'''、'''ジェネラティブAI'''ともよばれる。

著名な生成AIシステムとして、[[OpenAI]]が[[GPT-3]]や[[GPT-4]]の[[大規模言語モデル]]<ref name="nytimes-gpt4">Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html</ref>を使用して構築した[[チャットボット]]の[[ChatGPT]](および別形の[[Microsoft Bing#Bing AIの導入|Bing Chat]])や、[[Google]]が[[LaMDA]]基盤モデルに構築したチャットボット[[Bard]]がある<ref>{{Cite arXiv|eprint=2201.08239 <!--|url-status=live |archive-url=https://web.archive.org/web/20220121025747/https://arxiv.org/abs/2201.08239 |archive-date=January 21, 2022 |access-date=June 12, 2022-->|class=cs.CL|last1=Thoppilan|first1=Romal|last2=De Freitas|first2=Daniel|title=LaMDA: Language Models for Dialog Applications|date=January 20, 2022|last3=Hall|first3=Jamie|last4=Shazeer|first4=Noam|last5=Kulshreshtha|first5=Apoorv|last6=Cheng|first6=Heng-Tze|last7=Jin|first7=Alicia|last8=Bos|first8=Taylor|last9=Baker|first9=Leslie|last10=Du|first10=Yu|last11=Li|first11=YaGuang|last12=Lee|first12=Hongrae|last13=Zheng|first13=Huaixiu Steven|last14=Ghafouri|first14=Amin|last15=Menegali|first15=Marcelo|last16=Huang|first16=Yanping|last17=Krikun|first17=Maxim|last18=Lepikhin|first18=Dmitry|last19=Qin|first19=James|last20=Chen|first20=Dehao|last21=Xu|first21=Yuanzhong|last22=Chen|first22=Zhifeng|last23=Roberts|first23=Adam|last24=Bosma|first24=Maarten|last25=Zhao|first25=Vincent|last26=Zhou|first26=Yanqi|last27=Chang|first27=Chung-Ching|last28=Krivokon|first28=Igor|last29=Rusch|first29=Will|last30=Pickett|first30=Marc|last31=Srinivasan|first31=Pranesh|last32=Man|first32=Laichee|last33=Meier-Hellstern|first33=Kathleen|last34=Ringel Morris|first34=Meredith|last35=Doshi|first35=Tulsee|last36=Delos Santos|first36=Renelito|last37=Duke|first37=Toju|last38=Soraker|first38=Johnny|last39=Zevenbergen|first39=Ben|last40=Prabhakaran|first40=Vinodkumar|last41=Diaz|first41=Mark|last42=Hutchinson|first42=Ben|last43=Olson|first43=Kristen|last44=Molina|first44=Alejandra|last45=Hoffman-John|first45=Erin|last46=Lee|first46=Josh|last47=Aroyo|first47=Lora|last48=Rajakumar|first48=Ravi|last49=Butryna|first49=Alena|last50=Lamm|first50=Matthew|last51=Kuzmina|first51=Viktoriya|last52=Fenton|first52=Joe|last53=Cohen|last54=Aaron|last55=Bernstein|first55=Rachel|last56=Kurzweil|first56=Ray|last57=Aguera-Arcas|first57=Blaise|last58=Cui|first58=Claire|last59=Croak|first59=Marian|last60=Chi|first60=Ed|last61=Le|first61=Quoc}}</ref>。その他の生成AIモデルとして、[[Stable Diffusion]]や[[DALL-E]]などの[[人工知能アート]]システムがあげられる<ref>{{Cite web |last=Roose |first=Kevin |date=2022-10-21 |title=A Coming-Out Party for Generative A.I., Silicon Valley's New Craze |url=https://www.nytimes.com/2022/10/21/technology/generative-ai.html |access-date=2023-03-14 |website=[[The New York Times]]}}</ref>。

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある<ref name="economist2">{{Cite web |url=https://www.economist.com/business/2023/03/06/dont-fear-an-ai-induced-jobs-apocalypse-just-yet |title=Don't fear an AI-induced jobs apocalypse just yet |date=2023-03-06 |publisher=The Economist |accessdate=2023-03-14}}</ref><ref name="mckinsey">{{Cite web |url=https://www.mckinsey.com/industries/retail/our-insights/generative-ai-unlocking-the-future-of-fashion |title=Generative AI: Unlocking the future of fashion |last1=Harreis |first1=H. |last2=Koullias |first2=T. |last3=Roberts |first3=Roger |access-date=2023-03-14}}</ref>。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している<ref name="nytimes" /><ref name="economist1">{{Cite web |url=https://www.economist.com/business/2023/01/30/the-race-of-the-ai-labs-heats-up |title=The race of the AI labs heats up |date=2023-01-30 |publisher=The Economist |accessdate=2023-03-14}}</ref><ref>{{Cite web |url=https://cloud.google.com/blog/products/ai-machine-learning/generative-ai-for-businesses-and-governments |title=Google Cloud brings generative AI to developers, businesses, and governments |last1=Yang |first1=June |last2=Gokturk |first2=Burak |date=2023-03-14 |access-date=2023-03-15}}</ref>。しかし、生成AIを訓練する目的での[[著作物]]の無法図な利用や人をだましたり操作したりする[[フェイクニュース]]や[[ディープフェイク]]の作成など、生成AIの悪用の可能性も懸念されている<ref>{{cite web |title=Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI |url=https://techpolicy.press/transcript-senate-judiciary-subcommittee-hearing-on-oversight-of-ai/ |website=techpolicy.press |author=Justin Hendrix |date=May 16, 2023 |access-date=May 19, 2023}}</ref><ref name=":0">{{Cite web|和書|url=https://jp.wsj.com/articles/europe-to-chatgpt-disclose-your-sources-8d5ef01b |title=「チャットGPT」にEUが要求:情報源を開示せよ |website=The Wall Street Journal |accessdate=2023-4-28}}</ref><ref name="wspost-ai-in-illustration">{{Cite web2|url=https://www.washingtonpost.com/comics/2023/02/14/ai-in-illustration/|title=Artists are alarmed by AI — and they’re fighting back|access-date=2023-2-18|website=The Washington Post|language=en|df=ja}}</ref>。
== 歴史 ==
[[機械学習]]の分野では、その誕生以来、データをモデル化し予測することを目的として、[[統計モデル|統計的モデル]]を使用してきた。2000年代後半、[[ディープラーニング]](深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは[[識別的モデル]]として、[[画像認識]]{{Enlink|Image classification|英語版|en}}のような分類タスクを実行していた。

2014年、[[変分オートエンコーダー|変分オートエンコーダ]]や[[敵対的生成ネットワーク]]などの進歩により、画像のような複雑なデータの[[生成的モデル]]を学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、[[Transformer (機械学習モデル)|Transformer]]ネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の[[Generative Pre-trained Transformer|生成的事前学習トランスフォーマー]](GPT)が開発された<ref>{{cite web |url=https://github.com/openai/finetune-transformer-lm |title=finetune-transformer-lm |website=GitHub |access-date=2023-05-19}}</ref>。2019年、[[GPT-2]]がこれに続き、[[基盤モデル]]として教師なし学習を多くの異なるタスクに汎化する能力を実証した<ref>{{Cite journal|author=Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others|year=2019|title=Language models are unsupervised multitask learners|journal=OpenAI blog|volume=1|issue=8|pages=9}}</ref>。

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している<ref>{{Cite web |title=Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott |url=https://www.deeplearning.ai/the-batch/issue-229/ |website=Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott |date=2023-12-27 |access-date=2023-12-28 |language=en}}</ref>。

これ以降の応用面における進化については次節のモダリティを参照のこと。

== モダリティ ==
生成AIシステムは、[[教師なし学習|教師なし]]または[[自己教師あり学習|自己教師あり]]の[[機械学習]]を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットの[[モダリティ]]や{{Ill2|機械学習研究用データセット一覧|en|List of datasets for machine-learning research|label=種類}}によって異なる。

生成AIは、ユニモーダルシステムと{{Ill2|マルチモーダル学習|en|Multimodal learning|label=マルチモーダルシステム}}に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる<ref>https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/</ref>。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる<ref>https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/</ref>。

* '''テキスト'''
*:
*:{{See|大規模言語モデル}} 単語や単語トークンで訓練された生成AIシステムには、GPT-3、LaMDA、[[LLaMA]]、{{Ill2|BLOOM (言語モデル)|en|BLOOM (language model)|label=BLOOM}}、GPT-4などがある(を参照)。これらは[[自然言語処理]]、[[機械翻訳]]、[[自然言語生成]]が可能であり、他のタスクの基盤モデルとして使用することができる<ref name="FoundationModels">{{Cite arXiv|eprint=2108.07258|class=cs.LG|last1=Bommasani|first1=R|last2=Hudson|first2=DA|title=On the opportunities and risks of foundation models|date=2021-08-16|last3=Adeli|first3=E|last4=Altman|first4=R|last5=Arora|first5=S|last6=von Arx|first6=S|last7=Bernstein|first7=MS|last8=Bohg|first8=J|last9=Bosselut|first9=A|last10=Brunskill|first10=E|last11=Brynjolfsson|first11=E|year=2021}}</ref>。データセットとして、[[BookCorpus]]、[[Wikipedia]]などがある({{Ill2|テキストコーパスの一覧|en|List of text corpora}}を参照)。
* '''コンピュータープログラム'''
*:[[自然言語]]のテキストに加えて、[[プログラミング言語]]のテキストを大規模な言語モデルに訓練することで、新しい[[コンピュータプログラム]]の[[ソースコード]]を生成することができる<ref>{{Cite arXiv|eprint=2107.03374|class=cs.LG|last1=Chen|first1=Ming|last2=Tworek|first2=Jakub|title=Evaluating Large Language Models Trained on Code|date=2021-07-06|last3=Jun|first3=Hongyu|last4=Yuan|first4=Qinyuan|last5=Pinto|first5=Hanyu Philippe De Oliveira|last6=Kaplan|first6=Jerry|last7=Edwards|first7=Haley|last8=Burda|first8=Yannick|last9=Joseph|first9=Nicholas|last10=Brockman|first10=Greg|last11=Ray|first11=Alvin}}</ref>。たとえば、[[OpenAI Codex]]がある。
* '''画像'''
*:
*:{{See|人工知能アート}}
{{Ill2|キャプション (テキスト)|en|Caption (text)|label=説明文}}付きの画像セットで訓練された生成AIシステムには、{{Ill2|Imagen|en|Imagen}}、[[DALL-E]]、[[Midjourney]]、[[Stable Diffusion]]などがある。これらは、{{Ill2|Text-to-imageモデル|en|Text-to-image model|label=テキストからの画像生成}}や{{Ill2|ニューラルスタイル変換|en|Neural style transfer}}によく使われる<ref name="ZeroShotTextToImage">{{Cite conference|last1=Ramesh|first1=Aditya|last2=Pavlov|first2=Mikhail|last3=Goh|first3=Gabriel|last4=Gray|first4=Scott|last5=Voss|first5=Chelsea|last6=Radford|first6=Alec|last7=Chen|first7=Mark|last8=Sutskever|first8=Ilya|title=Zero-shot text-to-image generation|book-title=International Conference on Machine Learning|pages=8821–8831|year=2021|publisher=PMLR}}</ref>。データセットには{{Ill2|LAION|en|LAION|label=LAION-5B}}などがある([[:Category:コンピュータビジョンにおけるデータセット|コンピュータビジョンにおけるデータセット]])。
* '''分子'''
*:生成AIシステムは、[[アミノ酸]]の配列や、[[デオキシリボ核酸|DNA]]や[[タンパク質]]を表す[[SMILES記法|SMILES]]などの分子表現で訓練することができる。[[AlphaFold]]のようなこれらのシステムは、[[タンパク質構造予測|タンパク質の構造予測]]や[[創薬]]に利用されている<ref name="MITTechReview-AI-Automation">{{Cite web |last=Heaven |first=Will Douglas |title=AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work |url=https://www.technologyreview.com/2023/02/15/1067904/ai-automation-drug-development/ |website=MIT Technology Review |publisher=Massachusetts Institute of Technology |date=2023-02-15 |access-date=2023-03-15}}</ref>。データセットには、さまざまな{{Ill2|生物学的データベース一覧|en|List of biological databases|label=生物学的データセット}}が含まれる。
* '''音楽'''
*:MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる<ref>{{Cite arXiv|last1=Agostinelli|first1=Andrea|last2=Denk|first2=Timo I.|last3=Borsos|first3=Zalán|last4=Engel|first4=Jesse|last5=Verzetti|first5=Mauro|last6=Caillon|first6=Antoine|last7=Huang|first7=Qingqing|last8=Jansen|first8=Aren|last9=Roberts|first9=Adam|last10=Tagliasacchi|first10=Marco|last11=Sharifi|first11=Matt|last12=Zeghidour|first12=Neil|last13=Frank|first13=Christian|title=MusicLM: Generating Music From Text|eprint=2301.11325|date=26 January 2023|class=cs.SD }}</ref>。
* '''動画'''
*:注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や<ref>{{Cite web |last=Metz |first=Cade |title=Instant Videos Could Represent the Next Leap in A.I. Technology |url=https://www.nytimes.com/2023/04/04/technology/runway-ai-videos.html |website=The New York Times |date=April 4, 2023 |language=en |access-date=2023-04-30}}</ref>、[[メタ・プラットフォームズ|Meta Platforms]]のMake-A-Videoがあげられる<ref>{{Cite web|url=https://www.cnet.com/news/social-media/facebook-parent-metas-ai-tool-can-create-artsy-videos-from-text/|title=Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text|author=Queenie Wong|date=Sep 29, 2022|publisher=cnet.com|accessdate=Apr 4, 2023}}</ref>。
* '''ロボット制御'''
*:ロボットシステムの動きを学習させた生成AIは、{{Ill2|モーションプランニング|en|Motion planning}}のために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する<ref>{{cite web |url=https://ai.googleblog.com/2023/04/unipi-learning-universal-policies-via.html |title=UniPi: Learning universal policies via text-guided video generation |date=2023-04-12 |author=Sherry Yang, Yilun Du |work=Google Research, Brain Team |publisher=Google AI Blog |access-date=2023-05-24}}</ref>。
== 課題 ==
{{See also|人工知能の倫理|汎用人工知能による人類滅亡のリスク}}
より簡便にメディアの生成を行うことのできる生成的人工知能に対して[[政府]]や[[企業]]、個人が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催された[[広島サミット|G7広島サミット]]では広島AIプロセスを採択し、その中で安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。<ref name=hiroshima>{{Cite web |url=https://www8.cao.go.jp/cstp/ai/ai_senryaku/7kai/11hiroshimaaipurosesu.pdf |title=広島AIプロセスについて |access-date=2024/3/7 |publisher=総務省}}</ref>

[[アントニオ・グテーレス]]国連事務総長は2023年7月の[[国連安全保障理事会]]の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶ[[トラウマ]]、深刻な心理的ダメージを引き起こす可能性がある」と述べた<ref>{{Cite web |date=18 July 2023 |title=Secretary-General's remarks to the Security Council on Artificial Intelligence |url=https://www.un.org/sg/en/content/sg/statement/2023-07-18/secretary-generals-remarks-the-security-council-artificial-intelligence-bilingual-delivered-scroll-down-for-all-english |access-date=27 July 2023 |website=un.org}}</ref>。

=== 失業 ===
[[File:AI Protest Sign 2023 WGA Strike.jpg|thumb|{{仮リンク|2023年のSAG-AFTRAストライキ|en|2023 SAG-AFTRA strike}}において「生成AIの利用の制限」は要求の1つだった。<ref>{{cite magazine |date=4 May 2023 |title=The Writers Strike Is Taking a Stand on AI |url=https://time.com/6277158/writers-strike-ai-wga-screenwriting/ |magazine=[[Time (magazine)|Time]] |language=en |access-date=11 June 2023}}</ref>]]

{{Main|{{仮リンク|人工知能の職場への影響|en|Workplace impact of artificial intelligence}}|技術的失業}}

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論が[[ELIZA]]の開発者である[[ジョセフ・ワイゼンバウム]]らによって進められてきた<ref>{{Cite news |last=Tarnoff |first=Ben |date=4 August 2023 |title=Lessons from Eliza |pages=34–39 |work=[[The Guardian Weekly]]}}</ref>。

生成的人工知能によるイラストレータや俳優、声優などのクリエイターの[[失業]]が懸念されている。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている<ref>{{Cite web |last=Zhou |first=Viola |date=2023-04-11 |title=AI is already taking video game illustrators' jobs in China |url=https://restofworld.org/2023/ai-image-china-video-game-layoffs/ |access-date=2023-08-17 |website=Rest of World |language=en-US}}</ref><ref>{{Cite web |last=Carter |first=Justin |date=2023-04-11 |title=China's game art industry reportedly decimated by growing AI use |url=https://www.gamedeveloper.com/art/china-s-game-art-industry-reportedly-decimated-ai-art-use |access-date=2023-08-17 |website=Game Developer |language=en}}</ref>。2023年7月には生成AIの開発が{{仮リンク|2023年のハリウッド労働争議|en|2023 Hollywood labor disputes}}の一因となった。[[映画俳優組合]]の会長[[フラン・ドレッシャー]]は、{{仮リンク|2023年のSAG-AFTRAストライキ|en|2023 SAG-AFTRA strike}}中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した<ref>{{cite web |last=Collier |first=Kevin |date=July 14, 2023 |title=Actors vs. AI: Strike brings focus to emerging use of advanced tech |url=https://www.nbcnews.com/tech/tech-news/hollywood-actor-sag-aftra-ai-artificial-intelligence-strike-rcna94191 |publisher=NBC News |access-date=2024/3/6}}</ref>。 音声生成AIは、[[声優]]業界への潜在的な脅威とみなされている<ref>{{Cite web |last=Wiggers |first=Kyle |date=2023-08-22 |title=ElevenLabs' voice-generating tools launch out of beta |url=https://techcrunch.com/2023/08/22/elevenlabs-voice-generating-tools-launch-out-of-beta/ |access-date=2023-09-25 |website=TechCrunch |language=en-US}}</ref><ref>{{Cite web |last=Shrivastava |first=Rashi |title='Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods |url=https://www.forbes.com/sites/rashishrivastava/2023/10/09/keep-your-paws-off-my-voice-voice-actors-worry-generative-ai-will-steal-their-livelihoods/ |access-date=2023-11-28 |website=Forbes |language=en}}</ref>。

=== フェイク情報の作成 ===
{{Main|ディープフェイク|フェイクポルノ}}

[[ファイル:Trump’s arrest (2).jpg|サムネイル|{{仮リンク|エリオット・ヒギンズ|en|Eliot_Higgins}}がMidjourneyを用いて生成した[[ドナルド・トランプ]]が逮捕される様子を描いたディープフェイク画像(2023)]]

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成/[[捏造]]がより高精度に且つ容易になるため、[[詐欺]]や[[世論操作]]、[[プロパガンダ]]、[[名誉毀損]]等に悪用される可能性がある。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告や[[フェイクポルノ]]等の事例がある。

悪用事例以外にも、ニュース記事の生成や[[日本赤十字社]]による[[関東大震災]]の体験記の生成<ref>[https://www.yomiuri.co.jp/national/20230903-OYT1T50216/ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止] 読売新聞 2023年9月3日</ref>などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題がある<ref>{{Cite web |url=https://www.techno-edge.net/article/2023/09/11/1874.html |title=生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言 |access-date=2024/1/8 |archive-url=https://web.archive.org/web/20230927115131/https://www.techno-edge.net/article/2023/09/11/1874.html |archive-date=2023/9/27}}</ref>。

このため国内外で[[ディープフェイク]]対策のための研究が進められている<ref>越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196</ref>。

==== 音声のディープフェイク ====

{{Main|{{仮リンク|音声ディープフェイク|en|Audio deepfake}} }}

画像の場合と同じように有名人や公人の音声で物議を醸す発言をしている音声を生成する例があり、音声生成AIに対する倫理的懸念が生じている<ref>{{Cite web |date=2023-01-31 |title=People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips |url=https://me.pcmag.com/en/news/14327/people-are-still-terrible-ai-voice-cloning-tool-misused-for-deepfake-celeb-clips |access-date=2023-07-25 |website=PCMag Middle East |language=en-ae}}</ref><ref>{{Cite web |title=The generative A.I. software race has begun |url=https://fortune.com/2023/01/31/generative-a-i-is-about-to-upend-enterprise-software-and-cybersecurity/ |access-date=2023-02-03 |website=Fortune |language=en}}</ref><ref name=":52">{{Cite news |last1=Milmo |first1=Dan |last2=Hern |first2=Alex |date=2023-05-20 |title=Elections in UK and US at risk from AI-driven disinformation, say experts |language=en-GB |work=The Guardian |url=https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts |access-date=2023-07-25 |issn=0261-3077}}</ref><ref>{{Cite web |title=Seeing is believing? Global scramble to tackle deepfakes |url=https://news.yahoo.com/seeing-believing-global-scramble-tackle-013429757.html |access-date=2023-02-03 |website=news.yahoo.com |language=en-US}}</ref><ref>{{Cite web |last=Vincent |first=James |date=January 31, 2023 |title=4chan users embrace AI voice clone tool to generate celebrity hatespeech |url=https://www.theverge.com/2023/1/31/23579289/ai-voice-clone-deepfake-abuse-4chan-elevenlabs |access-date=2023-02-03 |website=The Verge |language=en-US}}</ref><ref name=":62">{{Cite news |last=Thompson |first=Stuart A. |date=2023-03-12 |title=Making Deepfakes Gets Cheaper and Easier Thanks to A.I. |language=en-US |work=The New York Times |url=https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html |access-date=2023-07-25 |issn=0362-4331}}</ref>。これに対して、一部の企業は安全対策とユーザーの身元確認を通じて潜在的な悪用の軽減に取り組む姿勢を見せている<ref name="engadget.com">{{Cite web |title=A new AI voice tool is already being abused to make deepfake celebrity audio clips |url=https://www.engadget.com/ai-voice-tool-deepfake-celebrity-audio-clips-094648743.html |access-date=2023-02-03 |website=Engadget |date=January 31, 2023 |language=en-US}}</ref>。

=== サイバー犯罪 ===
ディープフェイクは[[フィッシング詐欺]]を含むさまざまな種類の[[サイバー犯罪]]に悪用されている<ref>{{Cite news |last=Sjouwerman |first=Stu |date=2022-12-26 |title=Deepfakes: Get ready for phishing 2.0 |work=[[Fast Company]] |url=https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 |access-date=2023-07-31}}</ref>。さらに、テキスト生成AIは[[ECサイト]]上で高評価の偽レビューを量産するために大規模に使用されている<ref>{{Cite news |last=Collinson |first=Patrick |date=2023-07-15 |title=Fake reviews: can we trust what we read online as use of AI explodes? |language=en-GB |work=The Guardian |url=https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products |access-date=2023-12-06 |issn=0261-3077}}</ref>。WormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある<ref>{{Cite web |title=After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data |url=https://www.pcmag.com/news/after-wormgpt-fraudgpt-emerges-to-help-scammers-steal-your-data |access-date=2023-07-31 |website=PCMAG |language=en}}</ref>。

グーグルでクリック詐欺の対策に従事していた{{仮リンク|シュマン・ゴーセマジュムダー|en|Shuman Ghosemajumder}}は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している<ref>{{Cite web |last=Sonnemaker |first=Tyler |title=As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring |url=https://www.businessinsider.com/google-ex-fraud-czar-danger-of-deepfakes-is-becoming-boring-2020-1 |access-date=2023-07-31 |website=Business Insider |language=en-US}}</ref>。

2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTの[[ソーシャルエンジニアリング]]や[[フィッシング詐欺]]への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している<ref>{{Cite journal |title=From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy |doi=10.1109/ACCESS.2023.3300381 |s2cid=259316122 |date=2023 |last1=Gupta |first1=Maanak |last2=Akiri |first2=Charankumar |last3=Aryal |first3=Kshitiz |last4=Parker |first4=Eli |last5=Praharaj |first5=Lopamudra |journal=IEEE Access |volume=11 |pages=80218–80245 |doi-access=free |arxiv=2307.00691 |bibcode=2023IEEEA..1180218G }}</ref>。

=== ハルシネーション (幻覚) ===
{{Main|ハルシネーション (人工知能)}}

人工知能の用語の[[ハルシネーション (人工知能)|ハルシネーション(hallucination。幻覚)]]とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の[[幻覚]]に[[比喩|喩えて]]「幻覚」と呼ばれているが、[[作話]](confabulation)という表現のほうを好む研究者もいる。

2023年、アメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成に[[ChatGPT]]を利用した結果、'''存在しない[[判例]]'''の「[[引用]]」を6件行っていた<ref name="Nikkei_hallucination">{{Cite web|和書|title=ChatGPTで資料作成、実在しない判例引用 米国の弁護士 |url=https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ |website=日本経済新聞 |date=2023-05-31 |access-date=2023-08-15 |language=ja}}</ref><ref>{{Cite news |title=ChatGPT: US lawyer admits using AI for case research |url=https://www.bbc.com/news/world-us-canada-65735769 |work=BBC News |date=2023-05-27 |access-date=2023-08-15 |language=en-GB}}</ref>。

2023年11月、複数の[[俳優]]が[[政党|国政政党]]「[[れいわ新選組]]」を応援している旨のメッセージを載せた[[まとめサイト]]が確認され、俳優の[[芸能事務所|所属事務所]]、れいわ新選組が応援を否定する事態になった<ref>{{Cite web|和書|title=れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」 |url=https://nordot.app/1095640084193723249 |website=共同通信 |date=2023-11-10 |access-date=2023-11-12}}</ref><ref>{{Cite web|和書|title=れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」? |url=https://www.asahi.com/articles/ASRCB6RPTRCBUTFK01M.html?iref=ogimage_rek |website=朝日新聞 |date=2023-11-10 |access-date=2023-11-12}}</ref>。サイトの作成者は「該当記事はAIに書かせたものであり、その芸能人が実際にれいわ新選組を応援しているかどうか確認せずに掲載してしまった」と説明している<ref>{{Cite web|和書|title=○○さんらの“偽コメント”ブログ 作成者が日テレの取材に回答(一部伏せ字) |url=https://news.ntv.co.jp/category/society/3a7b0e70f3ef457d8876e7eeb1818f3d |website=日テレNEWS NNN |access-date=2023-11-12 |author=日本テレビ |date=2023-11-10}}</ref><ref>{{Cite web|和書|title=サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援 |url=https://nordot.app/1095686869514290081 |website=共同通信 |date=2023-11-10 |access-date=2023-11-12}}</ref>。

=== 人種的、ジェンダーバイアスの強化 ===
{{See also|偏りと分散}}
生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする<ref>{{cite web | url=https://news.mit.edu/2023/large-language-models-are-biased-can-logic-help-save-them-0303 | title=Large language models are biased. Can logic help save them? | author=Rachel Gordon | work=MIT CSAIL | date=March 3, 2023 | access-date=2024-01-26 }}</ref>、「[[CEO]]の写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている<ref>{{cite web |title=Reducing bias and improving safety in DALL·E 2 |url=https://openai.com/blog/reducing-bias-and-improving-safety-in-dall-e-2 |publisher=OpenAI |author=OpenAI |date=2022-07-18 |accessdate=2024-01-26}}</ref>。入力プロンプトの変更<ref>{{cite web | url = https://www.nbcnews.com/tech/tech-news/no-quick-fix-openais-dalle-2-illustrated-challenges-bias-ai-rcna39918 | title = No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI | author = Jake Traylor | date = July 27, 2022 | website = NBC News | access-date=2024-01-26}}</ref>や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている<ref name="DALL-E2-mitigations">{{cite web |title=DALL·E 2 pre-training mitigations |url=https://openai.com/research/dall-e-2-pre-training-mitigations |website=OpenAI |date=2022-06-28 |access-date=2024-01-26}}</ref>。

== 著作権 ==

=== 訓練データの著作権 ===
{{Main|機械学習#訓練データの著作権|著作権}}
生成的人工知能を訓練する際に使用するデータセットに含まれる著作物に関して、データ倫理上の課題と著作権法の解釈が議論されている。機械学習で訓練をされたAIサービスの普及に伴い、訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国では[[ニューヨークタイムズ]]の[[マイクロソフト]]、[[OpenAI]]への訴訟、[[ユニバーサル・ミュージック]]の[[Anthropic]]への訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されている<ref>NYT v. Microsoft, OpenAI ([https://nytco-assets.nytimes.com/2023/12/NYT_Complaint_Dec2023.pdf 1:23-cv-11195], 12/27/23)</ref><ref>https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/</ref>。

著作物を機械学習の訓練目的で利用することについて、国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外では[[オプトアウト]]により著作物の利用が制限される<ref>{{cite act|url=https://eur-lex.europa.eu/eli/dir/2019/790/oj|title=Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)|legislature=The European Parliament & Council of the European Union|date=17 April 2019}} 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html</ref><ref name=":11">{{Cite web |url=https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_03/pdf/93954701_04.pdf |title=生成AIに関する各国の対応について |access-date=2024/1/10 |publisher=文化庁}}</ref>。アメリカでは著作物の利用が[[フェアユース]]によって広範に規定されている<ref name=":11" />。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている'''<ref>{{Cite web |title=著作権法 {{!}} e-Gov法令検索 |url=https://elaws.e-gov.go.jp/document?lawid=345AC0000000048 |website=elaws.e-gov.go.jp |access-date=2024-01-14}}</ref>'''。また、[[ベルヌ条約]]における[[スリーステップテスト]]等の国際条約との関係も議論されている<ref>https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf</ref>。

=== 生成物の著作権 ===
{{See|人工知能アート}}
AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

== 脚注 ==
{{Reflist | refs=
<ref name="TECHBLITZ">TECHBLITZ編集部「[https://techblitz.com/genai-tools-trend-report/ 生成AI(ジェネレーティブAI)の成長スタートアップ最新動向を調査【生成AIツールトレンドレポート】]」『TECHBLITZ』イシン、2023年10月11日。2024年3月19日閲覧。</ref>
}}

== 関連項目 ==
* {{Ill2|計算論的創造性|en|Computational creativity}}
*:コンピュータを使用して創造性をモデル化、シミュレート、または複製することを目指した学際的な試み
* {{Ill2|人工的創造|en|Artificial imagination}}
*:人間の想像��を人工的にシミュレーションすること
* [[人工知能アート]]
*:人工知能プログラムによって制作されたアートワーク、特に画像や楽曲
* {{Ill2|音楽と人工知能|en|Music and artificial intelligence}}
*:国際コンピュータ音楽会議におけるさまざまな課題(音楽の作曲、演奏、理論、デジタル音響処理におけるAIの応用など)
* [[敵対的生成ネットワーク]]
*:生成AIに対応する機械学習の枠組みの一つで、2つのニューラルネットワークが互いに競い合う
* [[Generative pre-trained transformer]] (GPT)
*:transformerアーキテクチャに基づく人工ニューラルネットワークの一種
* [[大規模言語モデル]]
*:多数のパラメータを持つニューラルネットワークで構成される言語モデル
* [[無限の猿定理]]、[[中国語の部屋]]

{{DEFAULTSORT:せいせいてきしんこうちのう}}
[[Category:人工知能]]
[[Category:人工ニューラルネットワーク]]
[[Category:ディープラーニング]]
[[Category:新技術]]
[[Category:機械学習]]

2024年3月21日 (木) 09:28時点における版

A detailed oil painting of figures in a futuristic opera scene
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AI(せいせいエーアイ、: GenAI[5])は、文字などの入力(プロンプト)対してテキスト画像、または他のメディアを応答として生成する人工知能システムの一種である[6][7]

生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[8][9]ジェネレーティブAIジェネラティブAIともよばれる。

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[10]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[11]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[12]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[13][14]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[6][15][16]。しかし、生成AIを訓練する目的での著作物の無法図な利用や人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されている[17][18][19]

歴史

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[20]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[21]

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[22]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[23]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[24]

説明文英語版付きの画像セットで訓練された生成AIシステムには、Imagen英語版DALL-EMidjourneyStable Diffusionなどがある。これらは、テキストからの画像生成英語版ニューラルスタイル変換英語版によく使われる[27]。データセットにはLAION-5Bなどがある(コンピュータビジョンにおけるデータセット)。

  • 分子
    生成AIシステムは、アミノ酸の配列や、DNAタンパク質を表すSMILESなどの分子表現で訓練することができる。AlphaFoldのようなこれらのシステムは、タンパク質の構造予測創薬に利用されている[28]。データセットには、さまざまな生物学的データセット英語版が含まれる。
  • 音楽
    MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる[29]
  • 動画
    注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や[30]Meta PlatformsのMake-A-Videoがあげられる[31]
  • ロボット制御
    ロボットシステムの動きを学習させた生成AIは、モーションプランニング英語版のために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する[32]

課題

より簡便にメディアの生成を行うことのできる生成的人工知能に対して政府企業、個人が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催されたG7広島サミットでは広島AIプロセスを採択し、その中で安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[33]

アントニオ・グテーレス国連事務総長は2023年7月の国連安全保障理事会の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶトラウマ、深刻な心理的ダメージを引き起こす可能性がある」と述べた[34]

失業

2023年のSAG-AFTRAストライキ英語版において「生成AIの利用の制限」は要求の1つだった。[35]

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZAの開発者であるジョセフ・ワイゼンバウムらによって進められてきた[36]

生成的人工知能によるイラストレータや俳優、声優などのクリエイターの失業が懸念されている。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[37][38]。2023年7月には生成AIの開発が2023年のハリウッド労働争議英語版の一因となった。映画俳優組合の会長フラン・ドレッシャーは、2023年のSAG-AFTRAストライキ英語版中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[39]。 音声生成AIは、声優業界への潜在的な脅威とみなされている[40][41]

フェイク情報の作成

エリオット・ヒギンズ英語版がMidjourneyを用いて生成したドナルド・トランプが逮捕される様子を描いたディープフェイク画像(2023)

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成/捏造がより高精度に且つ容易になるため、詐欺世論操作プロパガンダ名誉毀損等に悪用される可能性がある。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ等の事例がある。

悪用事例以外にも、ニュース記事の生成や日本赤十字社による関東大震災の体験記の生成[42]などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題がある[43]

このため国内外でディープフェイク対策のための研究が進められている[44]

音声のディープフェイク

画像の場合と同じように有名人や公人の音声で物議を醸す発言をしている音声を生成する例があり、音声生成AIに対する倫理的懸念が生じている[45][46][47][48][49][50]。これに対して、一部の企業は安全対策とユーザーの身元確認を通じて潜在的な悪用の軽減に取り組む姿勢を見せている[51]

サイバー犯罪

ディープフェイクはフィッシング詐欺を含むさまざまな種類のサイバー犯罪に悪用されている[52]。さらに、テキスト生成AIはECサイト上で高評価の偽レビューを量産するために大規模に使用されている[53]。WormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[54]

グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー英語版は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[55]

2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリングフィッシング詐欺への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[56]

ハルシネーション (幻覚)

人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。

2023年、アメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例の「引用」を6件行っていた[57][58]

2023年11月、複数の俳優国政政党れいわ新選組」を応援している旨のメッセージを載せたまとめサイトが確認され、俳優の所属事務所、れいわ新選組が応援を否定する事態になった[59][60]。サイトの作成者は「該当記事はAIに書かせたものであり、その芸能人が実際にれいわ新選組を応援しているかどうか確認せずに掲載してしまった」と説明している[61][62]

人種的、ジェンダーバイアスの強化

生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする[63]、「CEOの写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[64]。入力プロンプトの変更[65]や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[66]

著作権

訓練データの著作権

生成的人工知能を訓練する際に使用するデータセットに含まれる著作物に関して、データ倫理上の課題と著作権法の解釈が議論されている。機械学習で訓練をされたAIサービスの普及に伴い、訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズマイクロソフトOpenAIへの訴訟、ユニバーサル・ミュージックAnthropicへの訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されている[67][68]

著作物を機械学習の訓練目的で利用することについて、国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウトにより著作物の利用が制限される[69][70]。アメリカでは著作物の利用がフェアユースによって広範に規定されている[70]。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[71]。また、ベルヌ条約におけるスリーステップテスト等の国際条約との関係も議論されている[72]

生成物の著作権

AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

脚注

  1. ^ 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
  2. ^ 生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
  3. ^ Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
  4. ^ 生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
  5. ^ TECHBLITZ編集部「生成AI(ジェネレーティブAI)の成長スタートアップ最新動向を調査【生成AIツールトレンドレポート】」『TECHBLITZ』イシン、2023年10月11日。2024年3月19日閲覧。
  6. ^ a b Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
  7. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News. https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake March 14, 2023閲覧。 
  8. ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日閲覧。 
  9. ^ Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
  10. ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  11. ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
  12. ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
  13. ^ Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
  14. ^ Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
  15. ^ The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
  16. ^ Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
  17. ^ Justin Hendrix (May 16, 2023). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. May 19, 2023閲覧。
  18. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  19. ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧
  20. ^ finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
  21. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9. 
  22. ^ Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日閲覧。
  23. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  24. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  25. ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
  26. ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
  27. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
  28. ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
  29. ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
  30. ^ Metz, Cade (April 4, 2023). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
  31. ^ Queenie Wong (Sep 29, 2022). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. Apr 4, 2023閲覧。
  32. ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
  33. ^ 広島AIプロセスについて”. 総務省. 2024年3月7日閲覧。
  34. ^ Secretary-General's remarks to the Security Council on Artificial Intelligence”. un.org (18 July 2023). 27 July 2023閲覧。
  35. ^ “The Writers Strike Is Taking a Stand on AI” (英語). Time. (4 May 2023). https://time.com/6277158/writers-strike-ai-wga-screenwriting/ 11 June 2023閲覧。. 
  36. ^ Tarnoff, Ben (4 August 2023). “Lessons from Eliza”. The Guardian Weekly: pp. 34–39 
  37. ^ Zhou, Viola (2023年4月11日). “AI is already taking video game illustrators' jobs in China” (英語). Rest of World. 2023年8月17日閲覧。
  38. ^ Carter, Justin (2023年4月11日). “China's game art industry reportedly decimated by growing AI use” (英語). Game Developer. 2023年8月17日閲覧。
  39. ^ Collier, Kevin (July 14, 2023). “Actors vs. AI: Strike brings focus to emerging use of advanced tech”. NBC News. 2024年3月6日閲覧。
  40. ^ Wiggers, Kyle (2023年8月22日). “ElevenLabs' voice-generating tools launch out of beta” (英語). TechCrunch. 2023年9月25日閲覧。
  41. ^ Shrivastava, Rashi. “'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods” (英語). Forbes. 2023年11月28日閲覧。
  42. ^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
  43. ^ 生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言”. 2023年9月27日時点のオリジナルよりアーカイブ。2024年1月8日閲覧。
  44. ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  45. ^ People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips” (英語). PCMag Middle East (2023年1月31日). 2023年7月25日閲覧。
  46. ^ The generative A.I. software race has begun” (英語). Fortune. 2023年2月3日閲覧。
  47. ^ Milmo, Dan; Hern, Alex (2023年5月20日). “Elections in UK and US at risk from AI-driven disinformation, say experts” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts 2023年7月25日閲覧。 
  48. ^ Seeing is believing? Global scramble to tackle deepfakes” (英語). news.yahoo.com. 2023年2月3日閲覧。
  49. ^ Vincent, James (January 31, 2023). “4chan users embrace AI voice clone tool to generate celebrity hatespeech” (英語). The Verge. 2023年2月3日閲覧。
  50. ^ Thompson, Stuart A. (2023年3月12日). “Making Deepfakes Gets Cheaper and Easier Thanks to A.I.” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html 2023年7月25日閲覧。 
  51. ^ A new AI voice tool is already being abused to make deepfake celebrity audio clips” (英語). Engadget (January 31, 2023). 2023年2月3日閲覧。
  52. ^ Sjouwerman, Stu (2022年12月26日). “Deepfakes: Get ready for phishing 2.0”. Fast Company. https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 2023年7月31日閲覧。 
  53. ^ Collinson, Patrick (2023年7月15日). “Fake reviews: can we trust what we read online as use of AI explodes?” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products 2023年12月6日閲覧。 
  54. ^ After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data” (英語). PCMAG. 2023年7月31日閲覧。
  55. ^ Sonnemaker, Tyler. “As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring” (英語). Business Insider. 2023年7月31日閲覧。
  56. ^ Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy”. IEEE Access 11: 80218–80245. arXiv:2307.00691. Bibcode2023IEEEA..1180218G. doi:10.1109/ACCESS.2023.3300381. 
  57. ^ ChatGPTで資料作成、実在しない判例引用 米国の弁護士”. 日本経済新聞 (2023年5月31日). 2023年8月15日閲覧。
  58. ^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News. (2023年5月27日). https://www.bbc.com/news/world-us-canada-65735769 2023年8月15日閲覧。 
  59. ^ れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  60. ^ れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」?”. 朝日新聞 (2023年11月10日). 2023年11月12日閲覧。
  61. ^ 日本テレビ (2023年11月10日). “○○さんらの“偽コメント”ブログ 作成者が日テレの取材に回答(一部伏せ字)”. 日テレNEWS NNN. 2023年11月12日閲覧。
  62. ^ サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  63. ^ Rachel Gordon (March 3, 2023). “Large language models are biased. Can logic help save them?”. MIT CSAIL. 2024年1月26日閲覧。
  64. ^ OpenAI (2022年7月18日). “Reducing bias and improving safety in DALL·E 2”. OpenAI. 2024年1月26日閲覧。
  65. ^ Jake Traylor (July 27, 2022). “No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI”. NBC News. 2024年1月26日閲覧。
  66. ^ DALL·E 2 pre-training mitigations”. OpenAI (2022年6月28日). 2024年1月26日閲覧。
  67. ^ NYT v. Microsoft, OpenAI (1:23-cv-11195, 12/27/23)
  68. ^ https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/
  69. ^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019. The European Parliament & Council of the European Union. 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html
  70. ^ a b 生成AIに関する各国の対応について”. 文化庁. 2024年1月10日閲覧。
  71. ^ 著作権法 | e-Gov法令検索”. elaws.e-gov.go.jp. 2024年1月14日閲覧。
  72. ^ https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf

関連項目