生成AIの悪用リスクに対して考えてみた。

データサイエンス

世はまさに生成AI時代。2015年頃の三次ブームでは、「どうせすぐ冷え込んでしまう」と言われていたが昨年末にchatGPTが爆誕してから生成AIはバズワード化し、多くの人に認知されて三次ブームが終わる前に四次ブームがやってきたとまで言われている。数多の生成AIが同時に産声を上げ、テキストだけではなく画像や音声も生成できるようになった。執筆時点ではChatGPTにアップデートが入り、画像の解析や音声出力も可能となってしまった。孫正義社長も”ChatGPTを使っていない人は人生を悔い改めたほうがいい” とソフトバンク社の基調講演で述べるほど。

世間の注目度

Googleトレンドで2021年9月から2023年10月までの”生成AI”の人気度変動を調べてみたところ2022年の夏頃に一度上昇。そこからいったん落ち込んだものの2023年から急激に上昇し、そこからは高止まりをしているという状態。最初の上昇に寄与したのはStable Diffusionだろう。ChatGPTが2022年11月にリリースされたので二度目の上昇に貢献しているのはもはや言うまでもあるまい。

悪用も増えている

一見万能に見える生成AIにも課題はある。今回は悪用に関して諸々調べてみた。「何を生成するか」によって使われ方も大きく異なるので「テキスト」「画像」「音声」の3通りについて述べる。

テキスト生成の場合

テキスト生成の場合、フィッシングメールやフェイクニュースのような扱いが懸念されている。ChatGPTではそのようなアウトプットを望むプロンプトを入力すると、出力をしないように倫理面を鑑みた学習は行われているが抜け道はある。かつての詐欺メールであれば、文章の不自然さから見抜くことができたが、違和感のない文章をつくりだすことができるようになってしまったため、これを悪用する輩もいる。ChatGPTの前身のGPT-3が公開された時から、このような懸念はあがっていた

画像生成の場合

画像生成AIの場合、近年はセクストーションの被害が相次いでいるという。セクストーションについてはこちら。)これ自体は昔からあった被害だが、被害者への性的な画像・動画を生成しそれをもとに恐喝を行うという形に変貌をとげつつある。他にも、他人の生成物をなりすましてあたかも自信の著作物のようにふるまう行為も問題視されている。誰もが自由に絵を作ることができるようになってしまったことの弊害とも言えるだろう。

音声生成の場合

音声合成では、本人がしていない発言をあたかもしたかのような使い方ができてしまう。かつては難しかった抑揚やトーンの調整もできるようになりつつある。PRTIMESのこちらの記事によると、成人の10%がAI音声詐欺に遭遇しているとのこと。こちらの調査では日本の被害は少ないが他国のように徐々に増えてくる可能性はあり得る。下記はMcafee社の調査レポートの一部を機械翻訳したものだが、何かしらの事件・事故に遭遇して困っている様子を装い、金銭をだましとっているということがわかる。

詐欺はほとんどの場合、被害者にお金を手放すよう説得することを目的としており、友人や愛する人からの現金の要求に応じると回答した人は 45% ですが、詐欺師が考え出したシナリオの中には、次のようなシナリオが考えられる可能性が高くなります。 他の人よりも成功している。 リストのトップは自動車事故または故障の 48% で、その次に強盗が 47% です。 携帯電話や財布を紛失した場合は 43% の人が対応し、41% の人は海外旅行中なので助けが必要だと言う人に返信します。 メッセージが誰から来たものであるかも、受信者が返信する可能性が高いかどうかに大きな影響を及ぼし、40% がパートナーまたは配偶者に返信する可能性が最も高いと回答し、次いで母親が 24% でした。 50 歳以上の親が子供に応じる可能性が最も高く、41% です。 注目に値するのは、最も知られているケースは、サイバー犯罪者が子供や孫の声を複製し、なりすましたと親または祖父母が報告したというものです。

https://www.mcafee.com/content/dam/consumer/en-us/resources/cybersecurity/artificial-intelligence/rp-beware-the-artificial-impostor-report.pdf

どのように対策するか

これらに対して我々にできることはあるのだろうか?急速に発展しているこの技術群にどう向き合うべきなのか。まず思いつくのは「その情報が虚偽か否かを疑う姿勢をつける」だろう。生成AIが市民権を得た以上、日常の中に紛れ込んでいる可能性はどんどん高くなるだろう。使っていないという人にとっても受け取る情報源が生成AIで作られたかもしれない。テキストに限って言えば、仕事上のメッセージ、友達からのライン、たまたま見つけたブログの文章、どこにでも入る余地はある。「正しいものを見つける」という目的の場合、「本当に正しいのか?」という疑いの目を持ち、精査にあたることが重要だろう。音声AIの場合は本人とテキストでやりとりをして、本当に事件にあったのかを確認することも対策になると思われる。(本当に被害にあって助けを求めている人にとっては気の毒だが)

ただ気になるのは常にそれができる人間がいるか?と言われるとなかなかいないだろう。大量の情報で溢れている現代なら、ニュースのような流れてきた情報に対して逐一真偽か否かを確認する時間はない。一日の終わりで疲れている状態ならさっと目を通して概要を把握するにとどまるだろう。サピエンス全史にもあったように人間には「虚構を信じる力」がある。そもそも遺伝子レベルで刷り込まれているのだから、この方法を常に実行するのは飯を食べずに生きろと言っているようなものではないか。では何をすべきか?私の意見としては「正確か否かを判断できる基礎を身に着ける」である。確固たる知識を持っていて脊髄で反応できるのであれば、逐一確認するコストも発生しない。日々学習をして、自身の知識をアップデートし、正しいといえる知識を身に着けておくことが重要だと思う。

技術者に求められること

急速に伸びている技術なので、技術者のニーズも伸びている。もし作る側になった際に求められるものがあるとしたら何か考えてみたが、月並みではあるがやはり倫理観だろうか。もはや生成AIがなかった世界は存在せず各国がフロンティアを掘りにいくだろう。巨大テック企業のいずれも、それぞれの会社がの意見としてAIの基本原則を述べている。

責任ある AI への取り組み  |  Google Cloud
原則、実践、ガバナンス、ツール、フレームワークを通じた、Google Cloud の責任ある AI への取り組み。
https://www.microsoft.com/ja-jp/ai/responsible-ai?activetab=pivot1%3aprimaryr6

賞味モデルそのものの構築に携われるのは超優秀や技術者に限られることにはなりそうだが、「使う側」も同様に・あるいは独自の倫理観を定義する必要があるのかもしれない。

おわりに

これを書いていて思ったことは、技術革新は世の中を便利にするという大義名分があるにも関わらず、人々に求められていることはより一層努力を強いているような気がしていることだ。ラクになるはずがむしろ厳しくなっている。加速する世の中にふるい落とされぬようにするには何が最適なのだろう。シンギュラリティがもたらすその先はパラダイス・ディストピアのどちらになるのだろうか。

コメント

タイトルとURLをコピーしました