Pages

Monday, July 24, 2023

AIが人類を滅ぼすかどうかについて、ロボットに質問しないでほしい - 産経ニュース

AIが人類を滅ぼすかどうかについて、ロボットに質問しないでほしい - 産経ニュース

国連サミットの会見において、人工知能(AI)が搭載されたロボットが「人類に歯向かうことはない」と応えたと報じた記事がいくつか公開された。AIがもたらす現在と将来のリスクについて、信頼できる専門家たちが警告しているときに、このようなナンセンスを目にするのは腹立たしい。

人工知能(AI)が人類に危険をもたらすことはない──。いくつかの著名な報道機関が、そんなニュースを報じたのは2023年7月の始めのことだ。この心強いニュースの情報源はというと、簡易的なチャットボットに接続された、たくさんのヒューマノイドロボットなのだ。

この知らせは、ジュネーブで開催された「AI for Good」と呼ばれる国連サミットのパネルから届いた。このパネルには、ヒューマノイドロボットが制作者とともに登場しており、記者たちはロボットたちに取材するために招かれ、そのなかにはHanson Roboticsが生み出したAIロボット「ソフィア」も含まれていたのだ。このロボットは、トーク番組に出演したことで知名度を上げ、奇妙なことにサウジアラビアで人間として存在を法的に認められている。

記者からは、「AIが人類を滅ぼしたり、仕事を奪ったりするのか」という質問が投げかけられていた。質問されたロボットたちは、ChatGPTに搭載されている技術とよく似た会話型AIによって回答を生成している。だが、このようなチャットボットには限界があると知られているにもかかわらず、ロボットの回答は、あたかも自律的な意思をもつ知的存在による、意味ある意見であるかのように報道されたのだ。

人々を混乱させる“高度な人形劇”

なぜこのようなことが起きてしまったのだろうか。その要因として、人間の表情を視覚的に模倣できるロボットは、見ている人たちの感情的な反応を引き出す力があることが挙げられる。そして、わたしたちはこうした表情を察知できるように常に構えているからだ。

しかし、現在のAIがもつ能力の限界を隠すための“高度な人形劇”にすぎないものを許容してしまうと、この技術を理解しようとしている人を混乱させ、今後この技術が引き起こすかもしれない問題に関する懸念を複雑化させてしまう。わたしはジュネーブで開催されたサミットに招待されて取材に行ったのだが、ソフィアやほかのロボットが「講演者」としてリストアップされているのを見たとたん、興味を失ってしまった。

AIがもたらす現在と将来のリスクについて、信頼できる専門家たちが警告しているときに、このようなナンセンスを目にするのは腹立たしい。機械学習アルゴリズムは社会的偏見をすでに悪化させており、偽情報をまき散らし、世界有数の大企業や政府の力を増大させている。そして、この進歩の早さによって、数年のうちに制御困難なアルゴリズムが誕生するのではないかと、第一線のAI専門家たちは懸念しているのだ。

ソフィアをはじめとする人間そっくりのロボットを手がけているHanson Roboticsは、人間の表情を模倣する機械の製造に驚くほど長けている。香港にある本社を訪れ、過去にディスニーで働いていた創業者のデビッド・ハンソンと朝食をとりながら話す機会が数年前にあった。同社の研究室は、まるでドラマ「ウエストワールド」や映画『ブレードランナー』シリーズのような雰囲気が漂っていた。電源が入っていないロボットが悲しげに遠くを見つめ、しなびた顔が棚にペタペタと置かれ、試作機が言葉に詰まりながら同じセリフを無限に繰り返していた。

ハンソンと会った際に、これらの機械に本物の知性を加えるというアイディアについて話した。著名なAI研究者であり、ブロックチェーンを活用したAIプラットフォーム「SingularityNET」の最高経営責任者(CEO)を務めるベン・ゲーツェルは、発展した機械学習技術をハンソンのロボットのソフトウェアに応用し、人間の発話に反応できるようにする取り組みを率いているという。

Adblock test (Why?)



2023-07-24 05:00:00Z
https://news.google.com/rss/articles/CBMiQ2h0dHBzOi8vd3d3LnNhbmtlaS5jb20vYXJ0aWNsZS8yMDIzMDcyNC0yNFBTTU5TVkRST09ST003Tkk0QVpQWDdDWS_SAVJodHRwczovL3d3dy5zYW5rZWkuY29tL2FydGljbGUvMjAyMzA3MjQtMjRQU01OU1ZEUk9PUk9NN05JNEFaUFg3Q1kvP291dHB1dFR5cGU9YW1w?oc=5

No comments:

Post a Comment