top of page
Hideya Tanaka

Issue 183 - AIとの信頼関係をどう築くべきか

今回のSeattle Watchでは、生成AIの進化に伴うAI規制の動向について紹介していきます。EUや米国ではAI規制の議論が先行しており、私たち人間がAIと信頼関係を築いていく上で、この議論はとても重要な立ち位置を占めています。

 

対話型AIの「ChatGPT」や画像生成AIの「Dall・E」といった生成AIが進化する中で、AI規制に向けた動きが世界中に広がっています。広島で開催されたG7首脳会議でも、責任あるAIの推進に向けて、「広島AIプロセス」(AI規制を議論する枠組み)の創設が首脳声明に盛り込まれるなど、グローバルなルールづくりも始まろうとしています。


AI規制の議論は欧米諸国が先行しており、企業もこの動向に注目して適切な対応を取らなければ、機会を逃したり、大きなリスクに晒されたりする可能性があります。ここではEU、米国、中国でのAI規制に関する現時点での議論や法案についていくつか紹介していきたいと思います。


EUでは、生成AIを含む包括的なAI規制案が欧州議会の委員会で5月に承認され、6月には本会議で採決が実施される見通しとなっています。この規制案は、AI を健康、安全、人権などのリスクの観点から、①許容できないリスク(禁止されるAI)、②ハイリスク(規制されるAI)、③限定リスク(透明性義務を伴うAI)、④最小リスク(規制なしのAI)の4段階に分類しています。そして、リスクの程度に応じて規制の内容を変えるというアプローチを採用しており、AIツールを使用する政府や企業は、リスクのレベルに応じて異なる義務を負うことになります。例えば、限定リスクAIの場合は、AIチャットボットと対話しているユーザーに、AIが関与していると知らせる義務や、コンテンツが人工的に生成・操作されたものであることを明らかにする義務などが生じる可能性があります。もし、こうした義務を遵守しない場合、そのAIをEU加盟国内で提供・販売する企業(海外企業も含む)は全世界売上総額の最大6%に相当する巨額の罰金が科されたり、EUでビジネスができなくなったりするおそれがあります。 https://www.soumu.go.jp/main_content/000826707.pdf


米国でも、バイデン政権がAIに関する責任あるイノベーションの推進策を発表しています。この施策には、責任あるAIの研究開発への投資、民間企業が開発した生成AIの客観的な評価(第三者検証)、連邦政府によるAI利用に関する指針の策定が盛り込まれています。また、政権高官らはAlphabet(Googleの親会社)、Microsoft、そして対話型AIを開発するOpenAIおよびAnthropicのCEOらと会合を開き、AIに関連するリスクや安全対策を巡って議論を行っています。 https://www.jetro.go.jp/biznews/2023/05/7c5bc3a8bf11f2ff.html


中国も生成AIの規制に着手しています。中国共産党はAI産業の発展を重視すると同時に、生成AIの自由な利用で政府批判が広がるのを警戒しており、党への脅威を排除する管理規則が近く施行されると見られています。中国政府が4月に発表したAIを活用したサービスに対する規制案には、生成AIを活用したサービスを提供する場合は当局の事前審査を受けることを義務づけるという内容も含まれています。また、AIが生成するコンテンツは、社会主義の価値観を反映し、差別やプライバシーの侵害を防止しなければならないとしています。 https://www3.nhk.or.jp/news/html/20230411/k10014035501000.html  


このように各国でAIを規制する枠組みの整備が進んでいますが、それと同じくらい重要な論点が、人間がAIをどれだけ信頼できるかという問題です。Microsoftでは「信頼できるAI」(Trusted AI)をキーワードに、AIの信頼性についてFATEという観点から取り組んでいます。FATEとは、公平性(Fairness)、説明責任(Accountability)、透明性(Transparency)、倫理(Ethics)の4つの要素のことで、AI学習に使われるデータの偏りからくる不公平性の問題、AIが誤った処理や判断をした場合の説明責任の問題、AIがどのようなプロセスで処理や判断を行ったかを明らかにする透明性の問題、そしてさまざまな文化や状況に応じた倫理問題への対応をそれぞれ意味しています。 https://pc.watch.impress.co.jp/docs/news/1046510.html


実際の現場でも、人間とAIの信頼を構築するための取り組みが行われ始めています。AIの透明性でよく取り上げられるのが、ブラックボックス問題(AIがどのような処理を行って、なぜその判断に至ったかをユーザーが理解できない問題)です。この問題が解決しない状態では、どれだけAIが優れていても、AIを信頼していない消費者や従業員にAIを使うように求めても、それを安心して使ってもらうことは難しくなります。そこで、英国のある自動車メーカーでは、AIツールの開発段階から現場の作業者を巻き込むことでこの問題に対処しています。同社では車体の組み立て工程にAIを導入して、不具合のある部品を特定することを目指しており、そのAIの開発段階において、AIのエンジニアが現場の組み立て作業者を巻き込み、彼らの現場での問題意識をヒアリングしました。その結果、現場の作業者はAIによる提案や警告をより容易に解釈して理解できるようになり、AIを信頼できる同僚としてみなすようになったそうです。 https://www2.deloitte.com/jp/ja/pages/technology/articles/tsa/tech-trends.html


コンサルタントの川口伸明氏は、著書「2060 未来創造の白地図」の中で、私たちはロボットやAIなどの機械的知性、あるいは機械的生命体とでも呼ぶべき多様な存在と共存する未来に直面するだろうと述べています。つまり、人間がAIなどの新しい知性とどのような関係を築くことができるかが今後の未来を大きく左右するでしょう。AIが人間の仕事を奪うという懸念もありますが、いつの時代も人間の仕事は変化してきました。最近では、プロンプトエンジニア(生成AIに対して人間がイメージしているコンテンツを適切に生成できるように命令を出すエンジニア)といった新しい職業も注目されてきています。AIとの信頼関係を築く上では、AIを適切に規制・コントロールすると同時に、AIとの協働を伴う新しい仕事に就けるように学び続ける姿勢がますます重要になってくると思います。



Recent Posts

See All

SW 217 - モビリティサービスの今と未来

今回のSeattle Watchでは、自家用車の所有・運転離れが進む中でのUberやLyftといったライドシェアサービスの現状と、Teslaが最近発表した自動タクシーであるCybercabやJoby Aviationの空飛ぶタクシーといった未来のモビリティについて紹介してい...

SW 216 - Biodiversity and Nature Positive

Webrainでは「Biodiversity and Nature Positive: Nature Tech for a Better Planet」というタイトルで、生物多様性とネイチャーテックについてレポートをまとめています。今回はその一部を抜粋して、生物多様性の回復...

SW 215 - 非営利のAIスタートアップの台頭

今回のSeattle Watchでは、非営利のAIスタートアップの台頭について紹介していきます。この動きは、あらゆる組織にとって、経済的利益とソーシャルインパクトの両立がますます求められていることを示唆しているのではないでしょうか? AI-powered...

Comments


bottom of page