「生成AIの新たな展開」と題して、元マサチューセッツ工科大学(MIT)メディアラボ所長の伊藤穰一氏の講演を伺いました。伊藤氏は、デジタル庁の事務方トップ「デジタル監」起用の可能性も取り沙汰された、その分野での第一人者です。
•Open AI SORAの動画生成デモを紹介、簡単な文章から高品質な動画が生成される
•LLMs(大規模言語モデル)の2つのパターン
1、フロンティアモデル
大量の画像を読み込みするためコストが100億円規模必要、大企業以外にとって参入障壁が高い、開発者の見解では今後10年で1,000〜10,000倍進化(ハードウェア10倍、資本10倍、ソフトウェア10〜100倍)が見込める
2、オープンソース
MetaのLlama2など
•日米でLLMsのパラメータ数の差が大きい
米国 GPT-4 (Open AI) 1兆7,600億
日本 HyperCLOVA (LINE/NAVER) 820億
•LLMsの2つのモデル
1、構造的シンボリックモデル
ルール、数学、プログラミングに準拠
人間の直感も実はルールに基づいている
自動運転、ロボットに適している
2、非構造的ニューラルモデル
統計、蓄積データに準拠
パターン認識の危険性として
•前提条件が変わるとパターン認識できない(データの入れ直しが必要)
•何を基準にパターン認識しているか不明
•シンボリックとニューラルの融合が課題
従来のマーケットと民主主義
インターフェース 会計士•弁護士
解釈 法律•金融
記録管理 複式簿記
基本的な道具 紙&インク
今後の分散型ネットワーク
インターフェース LLMs
解釈 シンボリック確率的プログラム
記録管理 ブロックチェーン&スマートコントラクト
基本的な道具 デジタル
従来は専門家が法律•会計の専門知識に基づいて紙の書面を作成
今後は個人がLLMsを活用し書面をデジタル管理
25人のAI Agentsを仮想空間に2日間生活させた実験では、人間のようなふるまいをし、バレンタインデーのイベントを自分達で企画した。
ただ、自律的なAgentとなるにはオープンエンド性の課題があり、同調圧力で同じことを言い始める傾向があり、新しいイノベーションが生まれない。
•ChatGPTは利口にしすぎるとバカになる
•人間の子供しつけしすぎるとクリエイティビティがなくなるのと同じ
•プログラマーでない人が、コンピュータと会話ができるようになったのがLLMsのメリット
•コンピュータは言われたことをやる、最適解を見つけるのが得意
•人間は、自意識を持ち、自律的に、自分でゴールを作ることができる
•弱みはAIに任せ、人間は強みを伸ばす、趣味の部分を伸ばすことが大事
•平均的な人間から特色ある人間へ
•日本の教育は内在的な動機を抑え、平均的な人間を育てる傾向があり要改善
伊藤氏の考え方は日本においては個性的で、「皆が並んでいるところは混んでいる」という一言が印象的でした。