report
2023.07.18
Vol.22『生成AIの倫理とプラットフォーム学』

2023年7月18日に「プラットフォーム学連続セミナーVol.22 生成AIの倫理とプラットフォーム学 〜ゲームチェンジャーとなる技術と、それに必要なELSI・ガバナンス〜」がオンラインで開催されました。株式会社サイバーエージェントでAIや3DCGを活用した広告クリエイティブの効果予測や自動生成の研究開発およびビジネス開発責任者・統括する毛利真崇氏と内閣府知的財産戦略推進事務局参事官補佐も務める弁護士の出井甫氏を招き、生成AIの基本的な使い方からその可能性、必要な倫理や原則について現状の解説やディスカッションが行われました。進行役は京都大学 プラットフォーム学卓越大学院 プログラムコーディネーターの原田博司教授が務めます。
●生成AIの最新ビジネス活用、そして普及において著作権上問題視される3つの論点
毛利氏からはまずサイバーエージェントにおけるAIの活用や取り組みについて説明がありました。サイバーエージェントは2016年にAI Lab、2023年にAI Lab京都といった研究機関を設立し、60名を超える博士号を持った社員がAIに関する研究を行っています。毛利氏は2017年にAIクリエイティブセンターを立ち上げ、研究結果や外部のAIを使っていかに効果の高い広告クリエイティブを作るかというミッションに携わっています。生成AIに関してサイバーエージェントではオープンソースのStable Diffusionをファインチューニングして、日本人の顔画像を追加で与えて日本人っぽい顔を生成したり、プロンプトだけで同じ人物を違う服装に変えたり、光の与え方をプロンプトで制御したり、またポージングのデータを与えることで好きなポーズを取らせたりといった実験に取り組んでいます。また広告に用いる画像や動画に生成AIを活かすための実験もしており、商品の輪郭を抽出してそれ以外の部分をプロンプトで制御することで、空の上に浮かべたり、水の上に置いてみたりして商品画像を自動生成するような実験などをしています。実際に広告として活用された事例としては、まつ毛美容液の広告で目の写真風やイラスト風の画像をたくさん自動生成させて少し加工を加えて活用したり、脱毛クリニックの広告ではMidjourneyで人間自体を生成したりしたものがすでに広告配信されています。人間が作ったものよりも、生成AIを使った方が広告効果が上がっているという事例もあります。
そしてサイバーエージェントでは生成AI自体も作成しています。ディープラーニングをメインとした従来の手法では、GAN(敵対的生成ネットワーク)による架空のAIモデルの大量生成と「極予測AI」の効果予測を何度も繰り返すことで、企業やブランド毎のターゲティングに適した「オリジナルのAIモデル」を生成する「極予測AI人間」があります。2023年5月には最大68億パラメーターの日本語LLMをリリースしています。
一方で海外の動きに目を向けると、世界的に注目度の高いChatGPT以外の独自モデルも出てきています。金融メディアのBloombergが発表したBloombergGPTは金融のデータだけで学習させたAIで、ChatGPTよりもサイズは小さいが、金融分野での性能が高いモデル。汎用型でいろんなことができるというよりは、金融分野だけでいうと例えば社長の名前を答えられたり、時価総額を間違わなず答えられたりするといった能力を持ちます。
そうした中でサイバーエージェントが開発したモデルは、日本語に特化した大規模な言語モデルです。従来の言語モデルは英語をベースに作られているものがほとんどですが、日本の文化を学習して広告を生成するためのエンジンとして開発を始めて、一部商用利用可能な形でオープンソースとして公開しました。社内で広告のコピーを作るところに実際に活用されているほか、日本の企業が持っているデータとサイバーエージェントのモデルを組み合わせて、各産業に特化したAIを作ろうという取り組みも始めていると自社の取り組みを紹介しました。
弁護士の出井氏からはAIを使用したサービス等を開発・利用・提供するにあたり、社会規範や制度を遵守し活動を統制するための、管理体制や運用を示した「AIガバナンス」について解説が行われました。AIと著作権の問題は世界的なトピックとなっている中、現時点において生成AIの基本的なプロセスにおいて懸念される問題点は主に3つ論点があると取り上げられました。
1点目は「AIへの学習行為の適法性」。日本の著作権法の第30条の4には「表現された思想又は感情を自ら享受し又は他人に享受させることを目的としない場合」には「いずれの方法によるかを問わず、利用することができる」とあります。AIに画像などの著作物を学習させる行為というのは、一般的には人が画像を見たり音楽を聞いて楽しんだりすることを目的としません。そこで現在、物議を醸しているのは但書にある「ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者の利益を不当に害することとなる場合は、この限りでない」という規定について。具体的には特定の作家の著作物に特化して学習させる行為がこの但書に該当するかが議論対象になっています。
2点目は実際にできたAI生成物に果たして著作権が発生するものなのかという「AI生成物の著作物性」の問題。著作物とは「思想又は感情を創作的に表現したもの」であり、法律は人に対するルールなので「思想又は感情」は人の思想感情を言います。そうすると、スイッチひとつでAIに生成されたものは人の思想・感情がないということで著作権は発生しないが、AIを道具として利用して生成されたものには著作権が発生するという棲み分け問題が物議を醸しています。実際はAIに指示するプロンプトに様々な種類やコツがあり、スイッチひとつ押して作れるものとは言いづらいため、著作権が発生する場合はあるのではないかと出井氏は考えを述べます。
3点目は「AI生成物による著作権侵害の成否」です。これはAI生成物が他者の著作物と似ていた場合、画像や音楽などに対して著作権侵害にならないのかという問題です。侵害の成立要件としては、それが似ているかどうかという「類似性」と、拠り所にしたかという「依拠性」の2点があります。類似性は人間が作成した場合と同様に「似ているかどうか」という考え方ですが、依拠性においては「AI生成物がたまたま他の何かに似てしまった場合に他の作品などを拠り所にしたのかどうか」という問題になり、そこはまだ考え方が煮詰まっていない状況だということです。
これらの論点に対して海外の状況を見ると、国や地域によって異なる制度や法律がある中で「国家間の相違をどうするか」というところでは、OECD(経済協力開発機構)において「AI原則」を42カ国が採択している状況です。ただしAIガバナンスの対策は国々だけがすればいいというわけではなく、民間も含む各ステークホルダーが協働して実現するもの。世界が国際ルールを形成し、政府が現状と将来を見据えた立法・政策をしたとしても、サービス提供者が対応する技術がなければ遵守できず、技術やサービスができたとしても、利用者が従わなければ意味がありません。ステークホルダーのガバナンスというのは、他のステークホルダーのガバナンスにつながるということで、「ガバナンス・オブ・ガバナンス」と「バイ・ザ・ガバナンス・フォー・ザ・ガバナンス」という仕組みに今後なっていくのではないかと出井氏は語りました。
●革新的技術の普及とその可能性ゆえ求められる規制などのバランスを議論する
後半のディスカッションパートで、原田教授から「日本語LLMを自社制作したモチベーション」について尋ねられた毛利氏は、我々が作る生成AIは、ChatGPTやBardなどと競合するつもりはなく、それぞれを適切に使えばいいというスタンスだと返答。一方で、広告のクリエイティブを生成した時にChatGPTやBardだと物足りないことがあり、もっと広告のコピーライターが書くような文章を書いてほしいとか、X(旧:Twitter)とFacebookの広告コピーを書き分けたいといった際に、それをChatGPTのプロンプトで制御するよりも、自分たちでラストワンマイルを埋めるようなものを作りたいという思いで作っていると語りました。実用例としてキャッチコピーを作る場合、ChatGPTにも自社のLLMにも作ってもらい、それを広告の予測エンジンで評価して良い方を採用するといった使い方を挙げ、コピーライティングが苦手だった人がAIコピーライターみたいな能力を手に入れたり、イラストが苦手な人が画像生成AIでイラストの描力を手に入れたり、各クリエイターの能力を拡張するというイメージだと説明しました。
続いて「AIで生成されたものが他の作品などに似てしまった場合の責任はどこにあるのか」という問いに対して出井氏は、考え方としては自動車に近く、自動車を運転して事故を起こした時、基本的には運転手が第一次的に責任を負う可能性が高いが、車そのものに欠陥があった場合は開発者側に責任が寄ってくる。AIが生成したものが似てしまった時、自社で開発したAIが生成した場合は、開発者としての責任が生じる可能性が高いかと思うとコメント。ただし、著作権侵害が成立する場合の拠り所となる要件は議論が煮詰まっていない状況で、AIが実際に学習したデータのパラメーターをどこまで出力しているのかが分析できなければ依拠しているとは言えないという学者もいるし、人間が学習しているものを見ていないから真似していないという考えもあり、そういう考えが普及すると、似たものが出たとしても責任は生じないという可能性はあるが、逆にそれを突き通しすぎると、AIでどんなに似たものを作っても責任が生じないという逆の懸念も生じるため、そこは今後の政府有識者会議で詰めていくところだと述べました。これに対し毛利氏は、AIが作ろうが人間が作ろうが基本的なスタンスは一緒で、使う人の立場からすると問題になるのが類似性と依拠性だと思っていると発言。サイバーエージェントには「プロンプトに著作権者のデータを入れるのはNG」という社内ガイドラインがあるとして、例えば「宮崎駿監督のような作風にしてくれ」といった指示は依拠性に当たるためNGにしているが、逆に言うとその依拠性と類似性を守っていければ、生成AIを使うこと自体は問題がないと述べつつ、ただし生成AI自体の制限はしていて、ある一定の基準をクリアした生成AIを使っていると、自社での対応について説明をしました。
これに対して出井氏は、サイバーエージェントの社内ガイドラインのように一定のセーフカードを設ければ、責任に対する免除ができて企業側も動きやすくなると評価する一方で、セーフガードをかいくぐって責任を逃れようとする、いたちごっこ的な問題も起きるだろうと補足。おそらく今年中には日本政府による一定の見解が出るはずだが、それだけで完結せずアップデートが必要になるとして、似てしまう生成物が出ないようなフィルタリング技術を作ったとしても、その技術を壊したり生成AIを自作したりして、いたちごっこが続くかもしれず、ここは見直しをしながら考える「アジャイル・ガバナンス」で対応すべきだという意見を述べました。
「業界内で共通したガイドラインを作ろうという動きはないのか」という原田教授の質問に毛利氏は、今のところは存在しておらず、企業間の競争がある中で、生成AIは業務が変わるレベルの大きな出来事で、利活用を進める中でどうしても守るべきものとトライするべきものが出てくる。このバランスは企業によって異なり、一元的にやろうとすると、どうしても守る方向に傾いてしまい、そうするとトライの数が減って日本が取り残されてしまう恐れがある。最低限の法律は守りながらどこまで許していくかというところは、現状どうしても企業ごとになってしまうと述べました。
「EUは厳しめのガイドラインを設けているがそのメリットはなにか」という質問については出井氏から、何をしたら良いか悪いかがある程度はっきりしていることだと回答。少なくともそれに従えば責任を問われることはないというのがわかりやすく明記されているが、ルールの厳しさには議論の余地はあると語りました。日本は「機械学習するなら日本だ」と言われるくらい法律がフワッとしているが、それもまた一つのメリットであり、どちらのメリットを得るかが日本に今問われており、EUで採択された修正案では「AIサービス提供者は著作権侵害生成物が出ないようにする技術措置をせよ」という義務が設けられたため、実質的にプロンプト禁止規定のようなものを策定する文化になっていくのではないかと現状を解説しました。
原田教授の専門である通信の世界では何かバイオレーションが起きた時にすべてを止めるキルスイッチを設けることが国の規定で決まっており、AIでもこういったものが必要なのではないかという意見について出井氏は、内閣府が2019年に策定した「人間中心のAI 社会原則」やOECDの「AI原則」でも、AIの最終判断を人間がするという原則があり、AIを生かすか殺すか、作動させるか否かは人間の判断が不可欠だと思うと返答。危険なのはブラックボックス化することで、何か事故が起きた時に原因の突き止められないと、改善もできないというスパイラルに陥ってしまう。そういった事態を防ぐためにも、情報をなるべく開示することが必要であり、キルスイッチに関しても、本当に危険なリスクを伴うものについてはそういった技術を入れ込むことが求められるかもしれないと述べました。
日本語LLMのオープンソース化について問われた毛利氏は、自社で1年半かけて作ったLLMを自社の独自データを除いた形で一部オープンソースにしていると取り組みを紹介。生成AI分野は、一企業だけでなく日本全体で研究を促進したり、課題を議論したりすることが重要であり、企業としてはオープンソースにするメリットはあまりないが、アカデミアへの貢献であったり、日本語LLMの精度をみんなで高めていこうというところが一番の目的だと語りました。このまま放っておくと、OSやクラウドのように日本が参入する機会がなくなり、ブラックボックス化して技術の中身がわからないまま海外製のものを使うしかなくなってしまうと懸念を述べました。これに出井氏も直接的なメリットがすぐには見出しがたい中で貢献的な意思でオープン化するというのは、とても素晴らしいことだと思うと評価。それが巡り巡って何かしらの形で利益生まれる仕組みを考えていけると理想的であり、日本はAIについての議論に遅れを取っていることもあり、海外に負けないぐらいのスピードで一丸となって考えていくべきだと補足しました。
生成AIに関する国の方針の方向性については出井氏から、今の著作権法が柔軟であることを踏まえると、そこから厳しくしようという動きは少ないと思うとして、それを厳しくするとAI開発が阻害されてしまう可能性があり、利活用は進めつつ権利者の不利益もしくは対価還元を保証できるような枠組み的なものを法律もしくはガイドラインという形で調和させていくのだろうと述べました。毛利氏はAI技術がどんどん進歩していく中で「これをやったらいい」というのを決めるのは難しいので「これはやったらダメ」という凡例のようなものを示してもらえると、開発サイドからするとやりやすいと補足しました。
これから活躍する人材に必要なものを問われた毛利氏は、技術開発に取り組むことは重要だが、倫理と法の知識も求められると発言。技術を社会に展開するには、法の範囲内というのはもちろん、文化的・慣習的に受け入れられる必要もある。人の行動は法、規範、アーキテクチャ、市場の4つの制約原理からなるという「行為の4つの制約原理」を意識しながら取り組むと良いのではと考えを述べました。ただし、法律の専門書を読めということではなく、自分の取り組んでいるものを普及させる場合に、どんな障害があり得るのか、どんな原則があるかを意識すると、普及しやすくなるし、サポートしてくれる方も多くなるだろうと補足されました。