2017年2月7日 8時0分  デイリー新潮   「週刊新潮」2017年2月2日号 掲載
http://news.livedoor.com/article/detail/12640468/

■なぜ人工知能は東大に合格できないのか?(上)

(中略)AIが東大に合格するなど簡単そうだが、挑戦してわかったのは、AIの弱点だった。プロジェクトを率いた新井紀子氏が明かす。

 ロボット(AI)は東大に入れるか――。AIの東ロボくんが挑んできたプロジェクトに一区切りがついた。
この5年間、毎年模擬試験を受け、偏差値も少しずつ高くなり、有名私大に合格できるレベルには達したが、東大合格レベルに届く見通しは立たないという。
ある種の問題には対応できても、所詮AIには読み解けない問題が数多く残ることがわかったのだ。
 むろん挑戦が無駄だったわけではない。新井教授によれば、浮き彫りになったのは近未来への意外な不安だったという。

 人工知能(AI)には、できることとできないことがあると思っています。
シンギュラリティは起きませんし、AIのおかげで人間が労働から解放されることもない。
とはいえ今後、一定の仕事はAIが代替するようになるはずです。

   (科学ニュース+板の字数制限のため中略)

■労働の二極化
 それでも労働は残ります。残るのはまず、AIを使いこなしてAIには不可能なことを実現する、高度なクリエイティビティ能力と重い責任を要する労働。
残りは、KYすなわち空気が読めないAIにはできない労働。人間にしかできないことがあるので、それを低賃金で下働きさせる、という理由で残ります。
 つまり、今存在している仕事全体から真ん中部分がAIに奪われ、人間が担う労働は上と下とに二極化されると思います。
結果、ただでさえ少子化なのに、失業と人手不足が同時に起こるという最悪のシナリオが現実になり、とくに高度なほうの仕事に就く人が不足するのではないか、と危惧を抱いたのです。
 AIには、実はたいしたことができませんが、データ分析や最適化はできます。
つまり道具にすぎないけれど非常に高度な道具なので、AIには負えない責任を負いながら使いこなす人が不可欠です。
ところが、このままではエネルギー問題を最適化したり、自動運転でリスクを分散したりするためにAIを使いこなす人がいなくなってしまうかもしれません。
それは原発の説明書を読める人がいなくなるようなものです。
 そういうことを本に書いたのですが、だれも実用書だと思ってくれませんでした。
そこで、毎年AIが勉強してそれなりの大学に入るようになったら、AIと人間の間になにが起こるのか、だれにでもわかるだろうと思ったのです。

■短文問題対策に500億語
 シンギュラリティに到達すれば全員が平等になれます。
AIがあらゆる仕事を担い、人間は恋をしてダンスをして詩を作って暮らしましょう、というユートピアが訪れるというわけですが、私はそうはならないと予測しています。
労働から解放された人間にはベーシックインカムを、と話す人もいますが、そんな状況が訪れるわけがない。
そう思うのは、機械が意味を理解できない、ということがわかったからです。
 今のAIは、ビッグデータによる統計的手法を使って意味がわかったふりをしているだけで、本質的な意味はわかっていません。
その証拠に、AIは何ギガとか何テラものデータを使いますが、人間は何ギガも何テラも見なくても意味を理解することができます。

  (科学ニュース+板の字数制限のため中略)

■巷の「AI論」への疑問
 そもそもシンギュラリティに到達するという根拠がよくわかりません。
全人類の脳のニューロンすべてを足したものより、コンピューターのチップひとつの容量のほうが大きくなる、とよく言われますが、なぜニューロンを足すという発想なのか。
足したら論理的な帰結が導かれるという保証はなく、脳細胞の数で決まるという話自体に信憑性がありません。
脳細胞の数は人間よりイルカのほうが多いという話もあります。それならイルカのほうが人間より賢いのでしょうか。
 計算処理が速ければいいのかどうかもよくわかりません。
スーパーコンピューターの計算速度を競いだすと、横に原発を1基建てなければ電力が追いつかない、という話が中国で出ていますが、
このように、AIをめぐって論理的に破綻していない議論は聞いたことがありません。
今まで発達してきたのだから今後も発達する、という経験則にも疑問が残ります。
たとえば人が移動する速度は、徒歩から馬車になり、自動車になり、ジェット機になりましたが、コンコルド以後は速くなっていません。

(以下ソース)

コメント一覧
>>1
これ、(下)はないのか。
まだ合格できなくてもできる可能性はある
二極化するの理由が提示されていないし
脈絡がない
何故そう思ったのかすら分からないけど
不安がらせようという意図は判る
ソフト作ってる奴がカスなだけ
> 機械が意味を理解できない、ということがわかったからです。
「お前らが今の理論で作った」機械が意味を理解できない、だろ

>  今のAIは、ビッグデータによる統計的手法を使って意味がわかったふりをしているだけで、本質的な意味はわかっていません。
人間だってわかったふりをしているだけだよw
だいたい人間が物事をどのように理解しているかは解明されていないんだからな

> その証拠に、AIは何ギガとか何テラものデータを使いますが、人間は何ギガも何テラも見なくても意味を理解することができます。
そうなるまでにその人間には何年間もかけて毎日毎日何ギガも何テラも情報を与えられてきたんだけどな

> 今まで発達してきたのだから今後も発達する、という経験則にも疑問が残ります。
今までの機械はダメだったからダメって言ってる奴が何言ってんだよwwwww

論理的に破綻しまくってるのはこいつ自身じゃねーの
日本語が理解できないから
東大の作った原子力発電所ロボットが使い物にならないだろ。
フルスクラッチでできないからiRobotのプラットフォームに使ってみたいセンサ積んだだけで,何にもできない。
プレゼンの上でミッション達成を詐称しているだけ。

それと同じ。製品パッケージとしてまとめられ無いんだよ。やりたいことだけ載っけて他は投げやり。
東大推薦合格者一覧
http://highschoolnet.blog.jp/archives/3738292.html
研究してきたっていうわりには、AIの未来に対して妙に否定的なのは
この人自身の能力の限界をAIの限界だと見誤ってるのかもね
袖の下まで手が回らなかったんだろう