AIは人間を超えるのか、なんでもできてしまうのか。こんな問いが頭をよぎる人は少なくないでしょう。
インタビュー第二回では、IT・データ解析サービスを展開する株式会社LIFAAの代表取締役、平井太郎氏に、AIと共存する生き方についてお話を伺います。
分野を特化すればAIはすでに人間を超えている
──前半のインタビューでAIが猫を超えられるのは分かったのですが、今の現段階の技術レベルだと、どれぐらいまで人間に近くなっていくのでしょうか?
全体的には全然人間と比べられないんです。
でも例えば、チェスや将棋・囲碁など、AIで電脳戦をやっているじゃないですか。
分野や機能を特化してしまえば、ある意味人間より優秀なAIもいるんです。
ただ、そのAIを別の分野に使ったらトンチンカンで何にもならない。
応用性が課題ですね。
──小説を書かせたり、絵を描かせたり、クリエイティブな領域でもAIの研究が進んでいます。
AIの元となるデータベースをうまく作れば、人間を超えられることもあるのでしょうか?
今はデータベースを作ることですよね。
それをクリアすれば、この先もっと応用的なことはできるはずです。
──例えば今までの日本文学・世界文学の傾向値を膨大なデータから分析して、アウトプットをAIにさせたら相当すごい文学ができるのでしょうか?
それとも、文学はそんなに理論的なものではないので、きちんとした小説にならないのか…興味があります。
うーん、可能性としては、感情は結局は理論的な仕組みだと言われていますよね。
数式化できないだけで、完全に感情の起伏も計算できると聞いたことがあります。
そういう意味でいうと、すべての物語に起承転結があって、その仕組みやワードを抜き出して組みあげることはできるはずです。
最終的に文章になるかどうかはまた別の話なんですけど、感動させることはできるんじゃないかなと思います。
だって、感動させる一節をそのままAIが抜き出して、そっと入れていても、気づかないじゃないですか。
──どれぐらい先かは分からないですけど、AIが進化して、AIが自分で考えるようになると、人間が持っている魂と、AIの魂をどういう捉えるべきなんでしょう。
その「差」に迷いや葛藤が生じるような気がします。
SFものでよくありますよね。
魂論というと宗教的になっちゃいそうなんですけど、基本的に人間が考えて生活する上で、奇跡的なバランスで人間はできているんです。
何かがずれたら成り立っていないはずなんです。
無駄な臓器はないように。
AIは結局人間が作っているものなので、最終的に完璧になれるのかというと難しいところですよね。
ファジー理論というのをご存知ですか?
曖昧さはコンピューターが苦手な部分なんですよ。
適当にやるというか、適度にやるって言うのが、昔からなんですけど、苦手なんです。
その辺を克服してもらえれば、劇的に進化するでしょうね。
インプットのデータでアウトプットの結果は変わる
──AIの技術はどんどん導入されていくのでしょうか?
今のところでいうと、本当に身近にAIを感じられるのはまだしばらく先だと思うんです。
けど例えば、ビックデータの分析はAIを使っているので、裏でもAIがいろんなところで活躍しています。
AmazonのrecomendもAIでデータを吐き出しているはずです。
AIというと、人工知能というので、何か「考えるもの」という考え方があるかもしれないですけど、研究分野もいろいろあるんです。
大量のデータの中から全組み合わせなんて計算しきれないので、最適な解を求めるというのも一応AIなんですね。
昔ね、遺伝的アルゴリズムっていうのがあって、人類の進化の過程を理論化したもので、何百兆の組み合わせでも一番最適な答えが出せるというような考え方のことを言うんです。
全パターンを計算すればもっといい答えがあるかもしれないけれど、計算時間とその無駄な時間を省いてもっとも最適な解を出す。
そういうのは今でもいろんなところで使われていて。
データ量が多くなればなるほど、全部なんか計算できないんですね。そのあたりを最適にするのもAIです。
データが集まれば精度が上がっていきます。
先程言った「教師あり学習」と「教師なし学習」というので言えば、「なんか違うな」と言ってくれると教師あり学習。
まさに答え合わせのある学習で、そうするのが一番精度があるんですけど、みんなわざわざしないじゃないですか(笑)。
結局、教師なし学習でひたすらこうじゃないかなという予想でひたすら学習を繰り返していくしかないんです。
なのでたまに予測が外れるわけです。
──データの量が肝なわけですか。
そう、学習するためのプログラムはできているので、必要なのはインプットデータなんですよ。
それさえあれば、文系の人でも簡単にできるし、逆にインプットデータで、アウトプットデータは全然変わるんですね。
そのAIプログラム作った人間でも想定できないアウトプットが出る可能性がある。
今は誰でもAIを使ってみれる時代なので、実際に使ってみて欲しいですね。
──今は赤ちゃんを育てるような段階なわけですね。
そうですね。また猫の話になるんですけど(笑)、うちの猫、小さい方が今4か月なんです。やんちゃな男の子なんですけど、怖いもの知らずなんですよ。
こないだ油断していたら、お湯が溜まった浴槽に飛び込んじゃったみたいで、ずっと鳴いて溺れているんです。
予想のできないことやっちゃうんですよね。
AIも同じです。失敗したら成長します。
自分が大学時代の頃、マウス型のロボットを迷路に解き放って、最速で迷路探査するという研究をAIでやっていました。
行き止まったらペナルティで負荷を与えて最終的に迷路を通過できるようにするという研究なんですが、今のAIも基本原則変わっていないはずです。
負荷の与え方で全然ゴールが違うんですよ。
途中の負荷の与え方やポイントで全然結果が変わってくる。
生き物を見ていると、本当に余計なことするなと思うんですけどね(笑)。
──負荷というのはこの場合どういうことですか?
例えば、行き止まりになってゴールできなかったら、その内部的なポイントを5減らすとか10減らすとか自分で決めるんです。
要は親がどれだけ叱るのか。
めっちゃ怒るのか、ちょっと怒るのか。
その違いです。
負荷のポイントを使って、次にそちらを選択しづらくなるみたいな仕組みなんですよ。
それをいっぱい組み合わせて、怒られない道を通るようになるんですけど、あまりにも怒りすぎると、子供と一緒で、どうしていいかわからなくていいか止まっちゃうこともある。
あまりに優しすぎるとゴールへの探査率が悪い。
──生き物みたいですね。
そうですね。
生き物をものすごく単純化した、ニューラルネットワークというんです。
脳のニューロンの仕組みを使った脳の人工知能則なんです。
──AIの研究をやっていると、人間の感情が記号に見えてくるものですか?
そんなことはないですよ(笑)。
でも、この人が怒りやすいポイントなんかは分かってきますけど…それ、みんなじゃないですか?(笑)
──より規則性を持って人と接するようになるとか…
エンジニアなどの業種の人はみんなそうだと思いますね。
まずプログラムを作るのに理論立ててやらないといけないので。
研究者、エンジニアから見るAIは、実は人間くさくて放っておけないものらしい。
なんだか微笑ましくもある人間とAIの関係性。
AIと迎えるこれからの人生100年時代を、平井さんはどのように描いているのか、第3回インタビューでお話を伺います。
写真:田形千紘 文:五月女菜穂
編集・構成 MOC(モック)編集部
人生100年時代を楽しむ、
大人の生き方マガジンMOC(モック)
Moment Of Choice-MOC.STYLE