人工知能の限界:深掘り
生き物とAIアルゴリズムの主な違いを探る。
― 1 分で読む
最近、人工知能(AI)がすごく熱い話題になってるよね。特に、この分野の急速な進化がそうさせてる。みんなが気になるのは、いつか人間みたいに考えたり行動したりするAI、つまり人工汎用知能(AGI)が作れるかどうかってこと。でも、生き物とAIを動かしてるアルゴリズムには大きな違いがあって、真のAGIが実現するのはかなり難しいんだ。
生き物の特性
植物でも動物でも人間でも、生き物にはいくつかのユニークな特徴があるよね。自分自身で体を作り出すことができる、つまり自己製造ができるんだ。これをオートポイエーシスって言うんだけど、生き物は自分で目標を設定して、それに向かって進むことができる。例えば、お腹が空いたら、自分で食べ物を探しに行くでしょ。
さらに、生き物はバラバラのパーツじゃなくて、全体として機能する完全なシステムなんだ。遺伝子構成から身体的な機能まで、すべてが深くつながっている。これによって、環境とのシームレスなやりとりができる。例えば、誰かが美しい木を見たら、そのビジョンが感情を引き起こして、写真を撮る行動に導くことがある。
アルゴリズムとその制約
一方、アルゴリズム、つまりAIを動かす基本的なコードは根本的に違う。アルゴリズムは、事前に決められた指示に基づいて特定のタスクを実行するための道具なんだ。コントロールされた環境の中に存在して、ソフトウェア(コード)とハードウェア(物理的な機械)を分けてる。生き物とは違って、アルゴリズムは自分で目標を設定できないし、人間のプログラマーから割り当てられたタスクだけをこなす。
この構造が、アルゴリズムが現実の世界と関わる方法を制限している。外部の入力に頼るしかなくて、生き物のように進化したり適応したりはできない。例えば、AIプログラムは顔を認識する能力を向上させられるけど、それは与えられた膨大なデータを処理することであって、顔が何かを理解したり体験したりするわけじゃない。
世界の大きさ
生き物が活動する「世界」は、アルゴリズムの「世界」とは大きく異なる。生き物は、複雑で変動の多い環境に住んでいて、多くの不確実性がある。これは「大きな世界」と呼ばれ、問題があいまいだったり明確に定義されていなかったりすることが多い。例えば、誰かが難しい社会的な状況に直面したら、本能や経験、知識を使ってそれを乗り越えなきゃいけない。
逆に、アルゴリズムは「小さな世界」で作動していて、明確なルールと定義された問題がある。アルゴリズムは、数学の方程式を解くみたいに構造化された状況しか扱えない。あいまいさに直面すると、つまずいてしまう。例えば、コンピュータはジョークの微妙なニュアンスを理解できず、データパターンだけに頼るから。
自律性とエージェンシー
生き物の重要な特徴の一つが自律性、つまり内的な動機に基づいて選択する能力だよね。例えば、猫は自分の必要に応じて遊びたいときや食べたいときに決める。この自律性は、生き物が生存し、繁栄するための内部目標から来てるんだ。
一方で、アルゴリズムには自律性がない。指示されたタスクを遂行するだけなんだ。決定を下しているように見えるときでも、その決定はデータの中で見つけたパターンに基づいていて、個人的な動機から来ているわけじゃない。例えば、ユーザーの質問に応じるAIチャットボットは、自分が理解したり手助けしたりしたいから反応するんじゃなくて、プログラミングやトレーニングデータに基づいて動いてる。
知能の概念
知能について話すとき、問題解決や推論、理解といった観点から考えることが多いよね。これらは本質的に人間的な資質で、一生を通じての経験を通じて発達していく。アルゴリズムは人間の知能の側面を模倣できることもあるけど、同じ意味で本当に知能があるわけじゃない。
例えば、現在のAIモデルは、一貫した文を生成したり情報を伝えたりできるけど、言葉の背後にある意味を理解しているわけじゃない。コンテキストや感情を真に理解する能力が欠けている。これが、AIがAGIを達成できない主な理由の一つなんだ。
現在のAIの限界
今のAIシステムは特定のタスクでは優れているけど、自分の能力を一般化することには限界がある。例えば、強力な言語モデルはエッセイを書いたり詩を生成したりできるけど、人間の感情や文化的なニュアンスを理解することはできない。この幅広いアイデアに適応したり理解したりできないというのが、真のAGIが今日のアルゴリズムシステムからは生まれにくい主な理由なんだ。
AI研究者が直面している課題は、生き物とアルゴリズムの基本的な違いから来ている。研究が進んでも技術が進化しても、現存するAIはその限界に束縛されたままだろう。アルゴリズムの基本構造では、真の理解やエージェンシーが出現することはない。
人工知能の未来
近い将来に真のAGIを見ることは難しいだろうけど、AIは進化し続けるよ。研究者たちは、特定の役割でより効果的になるようにアルゴリズムを改善するために常に努力してる。でも、こうした進歩はプログラミングで設定された境界の中に留まることを理解することが重要だよ。
AIシステムがますます普及するにつれて、その倫理的な使用についての議論がますます重要になるだろうから、洗練されたアルゴリズムがさまざまな分野で価値ある支援を提供できるとしても、自己認識や生き物に見られるエージェンシーが欠けた人間が作り出した道具だってことは忘れないでね。
結論
結局、生き物とAIアルゴリズムの違いはかなり大きいんだ。生き物は自己製造で、複雑であいまいな世界で活動するのに対して、アルゴリズムは厳密なルールがあるコントロールされた環境に依存している。だから、理解し、選択し、人生の複雑さを乗り越える能力が必要な真のAGIは、現在のAIモデルから生まれる可能性は低いってことなんだ。
AIの進化する風景は、可能性と課題に満ちていて、これらのツールが人間の能力を高める一方で、人間のエージェンシーや理解の重要性を見失わないようにしなきゃね。AIの能力をさらに探求する中で、その限界や生き物を定義するユニークな特性を意識し続ける必要があるよ。
タイトル: Artificial intelligence is algorithmic mimicry: why artificial "agents" are not (and won't be) proper agents
概要: What is the prospect of developing artificial general intelligence (AGI)? I investigate this question by systematically comparing living and algorithmic systems, with a special focus on the notion of "agency." There are three fundamental differences to consider: (1) Living systems are autopoietic, that is, self-manufacturing, and therefore able to set their own intrinsic goals, while algorithms exist in a computational environment with target functions that are both provided by an external agent. (2) Living systems are embodied in the sense that there is no separation between their symbolic and physical aspects, while algorithms run on computational architectures that maximally isolate software from hardware. (3) Living systems experience a large world, in which most problems are ill-defined (and not all definable), while algorithms exist in a small world, in which all problems are well-defined. These three differences imply that living and algorithmic systems have very different capabilities and limitations. In particular, it is extremely unlikely that true AGI (beyond mere mimicry) can be developed in the current algorithmic framework of AI research. Consequently, discussions about the proper development and deployment of algorithmic tools should be shaped around the dangers and opportunities of current narrow AI, not the extremely unlikely prospect of the emergence of true agency in artificial systems.
著者: Johannes Jaeger
最終更新: 2024-02-22 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2307.07515
ソースPDF: https://arxiv.org/pdf/2307.07515
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://www.overleaf.com/latex/templates/template-for-submissions-to-statistics-in-medicine/pmwddvhjgmwj
- https://twitter.com/ChrisMurphyCT/status/1640186536825061376?s
- https://www.thedailybeast.com/senator-chris-murphys-chatgpt-tweet-is-proof-lawmakers-arent-ready-for-the-ai-boom
- https://www.britannica.com/technology/software-agent
- https://www.wsj.com/articles/what-ai-still-doesnt-know-how-to-do-11657891316
- https://nymag.com/intelligencer/article/ai-artificial-intelligence-chatbots-emily-m-bender.html