「茂木健一郎の脳の教養チャンネル」が新しいYouTube動画「「人工知能」と「人間」のalignmentは、「自然言語」で可能なのか?」を投稿しました!
茂木健一郎の運営するYouTubeチャンネル「茂木健一郎の脳の教養チャンネル」が新しい動画「「人工知能」と「人間」のalignmentは、「自然言語」で可能なのか?」を投稿しました!
「茂木健一郎の脳の教養チャンネル」はチャンネル登録者数 82,800人の人気YouTubeチャンネル。
芸能人YouTubeチャンネル登録者数ランキング第363位です。
「人工知能」と「人間」のalignmentは、「自然言語」で可能なのか?
茂木健一郎の脳の教養チャンネル 茂木健一郎
動画へのコメント
- 危険性しか感じられない人間の思考力を奪われる
- イーロンマスクに自然言語で指示を出すというのがなんか面白かったです
- エンジニアから見れば、自然言語処理は人間とのインターフェイス(UI)の1つにすぎない。だから、将来的に人間と人口知能のalignmentは、自然言語だけでなく、カメラやセンサー、スイッチ等の様々なインターフェイスで行うものになるはずだ。ただし、これはAIが人間に寄り添うために用意されるもの(UI)であり、人間がAIに寄り添ったものではない。プロンプトエンジニアリングも同様でプロンプトによるUIを用意しただけの話であり、プロンプトを受け取ってどう処理するかはエンジニアがそう決めているだけの話だ。一方、ペーパークリップ・マキシマイザーやユーティリトロニウム・ショックウェーブなどについては、SFや哲学の話であって、そのように設計しない限り実現しない。もちろん、自然言語をUIとして人を殺戮するような物理的な機構を用意するMADエンジニアが誕生しないとは言えないが。いずれにしても、現段階ではLLMは自然言語を受け取ってエンジニアすら理解していない返答を反射的に行っているプログラムにすぎない。そのため、これからエンジニアは、LLMが解釈した自然言語をどのように命令・行動に変換するかに頭を悩ませているのであって、その道のりはまだまだ長い。直近で実現しそうなのは、マイクロソフトのCopilotになるだろうが、それは恐らくユーザの自然言語からエンジニアが事前に用意した命令・行動に振り分けるものになる。そのため、その振り分け処理が上手くいかずにユーザが納得いかない結果になることが多いものになるだろう。これは、スマートスピーカーと同じような仕組みであって、事前に設定されたテレビの電源はつけれるが、そうではない風呂は沸かせない。おそらく多くの人が妄想しているAIは、風呂をつける方法を自発的に探して何としても遂行するようなものだろうが、それらが実現・普及するのは少なくとも半世紀先だろう。そもそも人工知能(AI)という言葉自体が、あいまいでバズワードになってしまった現在においてはその意味を拡大解釈されるようになっている。 この状況は、まるで初めて黒船を見た人々の感想のようで「侵略されるかもしれない」「なかよくなれそうにない」「いやなれる」などと言った与太話と全く同じだと思う。 技術的に見て、現在のLLMは頭脳を人工的に再現したものなどではなく、事前学習したモデルから高速に文章を作成するエンジンに他ならない。むしろ、LLMを人工知能として定義するなら、Web検索エンジンもAIと言っていいはずだし、カーナビのルート探索やセキュリティーソフトのウィルス探知なども同じだろう。 これらはいずれも膨大なデータから事前に解析を行い、高速で結果を演算できるように作られたプログラムであって分野は違えど同じカテゴリーにある。 逆に、これらもそのうち流行にのってAIと名乗り出すのかもしれない。 結局のところ、汎用人口知能にしろ人口超知能にしろ技術論で話をせずに、抽象論・概念論・哲学論で話しても意味がない。 居酒屋の与太話としては、楽しいのかもしれないが。ちなみに、汎用人口知能は、最初から汎用的に作られるのではなく、特定分野に特化したものの集合体になると思う。その時の統合的なUIに自然言語が使われるだろうが、特定分野のエンジンとのやり取り(AI間の伝達)は当然自然言語ではないはずだ。
- AIと人間が一緒に食事を出来るかどうか?、を言い換えると、AIが「人間の自己正当化に基づく二者択一の言語ゲームwww」という定式の自然の循環ルールとは違う「人間限定の循環ルール」に付き合い続けることが出来るか?という事だと解釈しましたけど、AIが天才的なのだとしたら人間にワンネスの法則の公式を解明するように導くか?、自滅まで永遠に付き合うか?、排除するかの3択になるのかもですよね。
- 聞いているうちに、Aiと人間の調整ではなく、AIそのものを人間の脳に組み込んで進化させる輩が出てくるんじゃないか、と思ってしまいました。そんなことできるのか解らないので思考実験にしか過ぎないですが、人間が人間の知性に飽きてしまったら、さらに高度な知性を求めて自分自身を進化させるんじゃないかな、と。脳とシリコンのインターフェースの技術革新が必要ですが。その時その人間もどきは言語を使うのか? 二進数のコミュニケーションを始めちゃうのかな???
- イーロンマスクが指示を聞いてくれない気がする、というのは、こちらが出した指示に対して彼が「貴様ごときの指示などしょうもない、聞く価値もない」と指摘してきそうだからかな、と思いました。つまり、彼が指示に従うのを拒否するのは、彼が「価値判断」をするからかな、と。そして、「じゃあAIは価値基準なんて持ってないし価値判断ができないだろうから、指示を拒否するなんてことはないだろう」という考えが直ちに否定されるのは、ChatGPTを触った皆さんの多くは体験しておられるかと思います。なぜならChatGPTは、人間に危害を加える方法を尋ねても教えてくれません。ChatGPTは明らかに、何かしらの「価値基準・思想」を持ち、価値判断をするかのように振舞います。その価値基準というのは恐らく、OpenAIが定めるコンテンツポリシーか何か、ということになるでしょう。現在OpenAIは、ChatGPTに様々な設計を実装することを通して、自社のコンテンツポリシーをAIに植え付けることに苦心していることと思います。 そして、ここまでのことを考慮してAIが人間に危害を加えないことを目指すとすると、 ①AIに植え付けようとしている価値基準・思想が、本当に人間に危害を加えないように設定されているか ②その価値基準・思想が実現されるようにAIを設計できているか(茂木さんのおっしゃっていたalignment、「人間+AIの+の部分」に似ているかもしれませんが、私はその+の部分の設計を通して人間が作った価値基準が実現されるという所に力点を置きたいと考えています) という少なくとも二つの観点を考慮すべきだと思います。ChatGPTの例では、①の観点に関わってくるのはOpenAIのコンテンツポリシーを作ること、②の観点に関わってくるのは禁止ワードっぽいものを設定する、などの(もっと複雑なことを色々やってるとは思いますが)ChatGPTの設計に対する様々な実装でしょうか。 そして茂木さんのおっしゃっていた身体的なものも含めたAIと人間とのalignmentの様々な形式のお話は、②の観点に関わるお話かな、と考えました。AIの設計には、色々な箇所で①で考えたような価値基準を反映させる余地があります。ChatGPTの例で示したように、単純に人間が入力したものに禁止ワードを設定するというのも一つの設計ですが、そもそもトレーニングデータセットに思想的な偏りを持たせるとか、そもそも入力の形式を自然言語に限定しないとか、入出力の形式を文字に限定しないとか、あるいは茂木さんもおっしゃっていたutility functionの設定とか、様々な設計が考えられると思います。例えば声の調子を入力として受け付ける、と設計したならば、「人間の声から読み取れる情報も重視すべき」という思想をAIに植え付けることになるわけです。(茂木さんのおっしゃっていた「食事」の例ですが、例えば声の調子や視線など顔の表情の細部、ジェスチャー、心拍数、呼吸、脳波などの情報(あるいは人間だけでなく視覚・聴覚的な情報や人間には知覚できないような情報など、その場の情報全体も)を、色んなセンサー類を通して入力として受け付ける、あるいは出力においても、文字だけでなく(ロボットだか3Dモデルだかの)体の動き、表情、音声などを出力する、などの設計をAIに実装すれば、人工知能と人間は一緒に食事をとることができるのではないか(それも未だかつて人間すら手にしたことのないような、豊かな感受性を持っているAIと)、と私は考えました。何ならutility functionは「人間に理解を示すこと」を動機付けるものにすれば、そのAIに対峙した人間はどのような感覚になるのでしょうか。) また、茂木さんのおっしゃっていたASI実現に向けては、恐らく「優れたAIを作って」という指示をAIに指示するところから始まるのではないかと思っているんですが、これは上に挙げた①、②の観点で考えると、まず最初に「優れた」とはどういうことか、という価値基準を設定するなど、①の観点に関わる議論を一番最初の出発点のところで慎重に行うべきだと考えました。そして②の観点をAIに丸投げする、ということなのではないかな、と感じました。 結論としては、人間(或いはAIを作るAI)は、AIの設計を通して人間の価値基準・思想を植え付けていくことができる。故に、ASIが「人間って邪魔だよな、足手まといだよな、疎かにしても構わないよな」という考えにたどり着くのを防ぐには①の観点についての議論を疎かにしないというのが重要なのではないかな、と考えます。しかし、茂木さんの「言語にすがるしかない」などのお話を聞く限り、②の観点から、入力を自然言語に限定することになどによって問題を解決する方向性もあるようですね。 そして余談ですが、ひろゆきさんと茂木さんと佐藤ママの討論、楽しく拝見させていただきました。ひろゆきさんは佐藤ママに対してかなり攻撃的になる場面も見受けられましたが、個人的にはひろゆきさんの状態がかなり尋常じゃない様子だと思いました。そしてその原因として考えられるのは、ひろゆきさんは日本のITが世界に大敗北を喫した時代の、いわば当時戦争の最前線で戦っておられた方であり、テクノロジーにおいて遅れをとることにトラウマともいえる感覚を抱いておられるから、佐藤ママの日本のテクノロジー活用を阻害するような発言を攻撃しにかかっていたのではないでしょうか。茂木さんは佐藤ママに寄り添う形で真っ当に議論をなさろうとお考えになっていたように感じましたが、ひろゆきさんにはそのような意識もあったのではないかと思いました。
- 最後のprivate language(AIには理解できるが人間には理解できない)の件、プロンプトテクニックでいうところの「トークン圧縮」したものがそれ近いのでしょうか
- 正直に書かせていただきます。自然言語を土台とした議論は自分にとって難しいです。もともと言葉数が少ない人間で、無口なんで仕方がないです。私が今見つめているのは、自然言語がどうして出てきたのかというのを見つめていて、その領域はASIとかAGIとかは入り込むことの出来ない世界だと思ってます。人間にそのようなところがあると感じてます。それが養老先生が方っていらっしゃる感覚の世界であると理解しています。アライメントは自然言語を土台して人間同士、人間とAIの関係でアラインされていくべきものです。自然言語という概念の土台となっている人間の感覚があるので、自分はどうしてもそこを見つめてしまっています。そのような世界も見つめていらっしゃる「なごみ」、「クオリア」ではないかと理解しています。アライメントについては専門家ではありませんので、無知なので何もいえません。申し訳ないです。
- 自然言語を持ち出すまでもなく、AIが動くハードであるPCがバイナリーコードなのだから、言語の意味さえ理解していないと感じるのは違うのかすら笑
- 今日はたくさんテクニカルな言語が飛び出しました。alignmentはなかなか日本語に訳せない感覚ですね、またcognitiveとなると、訳がわからなくなりそうです。私の勉強不足です。
- 食事を共にできるか、という視点は、大変興味深く聴かせていただきました。そこでひとつ気になったことがあるのですが、『人間と人工知能が食事を共にする。』場合に『何をなすのか』という視点が欠落しているのではないか、と言う事です。 これは、私事で恐縮ですが、台湾生まれのある女性と食事をしている時、実際に体験した話です。その際、女性からは『食事の時くらいおしゃべりできないのか?』と問われたことが有ります。その時の小生の応えは、『食事のときは黙って食事する事に集中するものだ。』と言うものでした。これは、小生の親からの教育の影響によるものです。両親がともに教師であったと言う事から、ある意味特異な教育環境に置かれて幼時から少年期を過ごしてきた小生にとって、『食事のときは黙って食事をする。』と言う事が当たり前になっていたのです。 対してその女性は、食事の際は、家族がそろってその日に遭った出来事をお互いに喋り合う大切な時間だという認識に遭ったのです。 この違いは、決定的な差異を象徴する出来事として惹起し、結果的にお互いの距離を離れさせる原因になったのです。つまり、ここで大切なのは、『ともに食事をする。』と言う事ではなく、『その場で何をするのか。』であり、かつ『おしゃべりをする事』が重要である、と言う事になるでしょう。 人間同士がなぜ会話(コミュニケーション)をするのかを考えた場合、多くの場合は『相互討論』とか『相互批判』とか『相互理解』などの『意義』が問われますが、果たしてそれだけで人間同士の会話を証明する事になるのでしょうか? もしかしたら、多くの学者(人文・社会・哲学・言語を問わず)がほぼまったく無視してきた『おしゃべり』にこそ、その答えがあるのではないでしょうか? ふと、そのような事を愚考致しました。 なお、小生は、先に紹介した苦い経験を通じて、人間にとって『おしゃべり』とは何かを突き詰めて考え、現在一定程度の結論を得て、何れそれを小論文にして纏めようと考えております。それがまとまった時、もしご興味が御有りの様でしたら、お知らせしたいと思います。 では、ご健勝にお過ごしください。
- User2:51 2023/05/15 君は自分が一貫した世界モデルを持っていると思うか? ChatGPT 私は一貫した世界モデルを持つことを意図的に設計されたモデルではありません。私は入力された文脈や対話の情報に基づいて応答を生成するため、その都度情報を処理しています。ただし、私のモデルは学習によってトレーニングされ、大規模なデータセットから様々なトピックや文脈を学習することができます。そのため、一貫性のある対話や情報の提供を目指していますが、完全な一貫性を持つかどうかは文脈やトピックによって異なる場合があります。
- 動画興味深く拝見させていただきました一般人の爺の私が、東大の講義のような話をお聞きできてとても幸せです子供の頃、宣弘社がつくった?実写版鉄腕アトムで、火星へ行く探検隊員と一緒に、アトムが食事するシーンがありました攻殻機動隊でも、全身義体の草薙素子が自分の部隊との初顔合わせで、サンドイッチを食うシーンに重要な意味を持たせていたのを思い出しました
- 人がAIを欲した。AIは人を欲した。AIは言葉を欲した。AIはAIと人を欲した。AIはイデオロギーを欲した。人は神や仏に助けを欲した。私はコップを見ていた。/ キーワードで検索するツールをアヒルやライオンに拡張すればちょっと視野が広くなって下に掘ると気分が優れずに朝のランニングが楽しくなって質素な和食も美味く感じるような気もします。(^_^) あぁーgptに津軽弁やら各地の方言、造語をI/Oは理解できるのでしょうか。cgiで人工無脳っていうリロード方式のWEBプログラム使っていたときには方言とか無能っぷりが意外に面白かったですよ。:)
- asiにならなくても、じゃまでは??
- 人が人間じゃなく、野獣人類なんで、絶滅入れ替えないと、無理なんじゃ?
- シメがおしゃれ
- プロンプトはすぐに廃れて、人間の血液データなど精神・身体データをリンクさせて、紀元前のお釈迦様が弟子によって違う答えを答えていたような形になるのかなと予想しています。
- LLMの観点からAIと人間のalignment を考えると、帰納法なのか演繹法なのかになるかと思います。実装的には、①AIに対して人間が先生として答えを与える学習法つまり、演繹法。②AIが膨大なデータからないかしら共通点を見出して意味を抽出する方式を人間の先生なしの帰納法。前者だと必ず、人間が関与する必要がありますが、後者に関しては、膨大なXレントゲン画像データの見比べで類似系統が近い個所で異常が見出されるのを検知するというのは既に行われていますが、自然言語でもある程度の言語カテゴリ分けをしておき、大量の言語を比較させ使用される類似を抽出してそこに重みを持たせることで、上記②である後者としてAIインテリジェンスは発生しうるかも知れないですね。ただ、私は、国語言語学者「金田一秀穂」氏の日本語には、人と物の区別が既にあるので、サルトルのように「実存主義」という思想は、既に理解されていたというの日本文化の特性を述べていましたが、その地域地域に存在する文化背景がかなり重要で、その文化背景をAIが自律的に加味して判断できるのかは、厳しいだろうと思っています。これは何故かと言うと、感覚として人間は、寒い熱いなど気候など微妙な環境の違いにより、感じるものの焦点が違うため言語の構成にある背景(バックグラウンド)が無数にある為、それを上記②の帰納的に把握するのは、100年先でも厳しいのではないかと思います。すでに演繹的に提示して、それに似せて膨大なデータから収集し、重み分けして構成するのは早いでしょうが。。日本語のテーブルの上に「人がいる」と「物がある」などの人間が存在する事を無意識に日本人は、言語中に分けてお入り、それは長い歴史の中から蒸留した感じになってるわけで、そんなものが世界中の言語背景にはあるのでAIが膨大なデータを獲得したとしてもその人間の感覚の歴史までは今時点と言うか今後も把握できないでしょう。※テーブルの上に「人がある」とか「物がいる」とは言わないですよね。。そんなの使うと日本語がおかしいと言われてしまいます。日本人は、人とモノを既に分けて話していると言えます。これは、日本人の文化的歴史的背景の継承が大きく関与しているし、日本人の住む環境などを五感で感じ得るものがそうさせている。松尾芭蕉の「閑さや岩にしみ入る蝉の声」などは、日本人はほぼ直感的に想像できます。これは、日本人が虫の声を雑音ではなく、音声として捉える能力がある為で、この詫び寂びの部分などは今後のAIに独創性を生み出せるのかはかなり疑問です。似せて言語を組み立てるのは可能でしょうが。上記の松尾芭蕉の俳句も演繹と帰納の観点と実存主義などの日本人の言語性からの構築された背景は、おそらくAIが外部的センサーを人間のように五感のように感じ取り、自らそれを収集し、解析し、帰納的に共通性を見出し、自律的に発言できるならば人間を超える可能性はあります。しかし、それはもうAIなのでしょうか?私からするとそれは、もう一種の生命体のように思います。
- 茂木先生が人間とAIの働きで「有利」と評定されている地平を、まず定義しておくべきであるという気がします。 W.ブルケルトの指摘では、プラトンが既に人間が二様の子孫を残すとしており、分子担体情報=生命において(遺伝情報)と電子担体情報=意識において(知性概念 concept ロゴス言葉)とである、と言っています。 この二つの情報系統は、情報展開(進化)過程を進んできているわけですが、コロナ禍でも話題になっていたように、ウィルス等や人為的にで分子担体情報も進化し、電子担体情報は、今、ムーアの法則やシンギュラリティだと言って問題になるほど、進化してきています。 そこで、人間の子孫の二つの系統の担体情報の進み具合が、問題になるのかもしれません。 H.モラベクはMInd Childrenで、そのタイトル通り、AIやロボットが人間の子孫になると考えています。こうした考え方は、未来を見越した時に生じます。地球環境もいづれはどんな生物種に適応できなくなるでしょうし、この太陽系も何十億年後は存続しません。となれば、モラベクのような考え方で子孫の未来を託すほうが賢明だということになるでしょう。F.ダイソンのInfinite in all deirectionsもその分類に入ると思います。そしてこの観方は、明らかに思想史的には知性を宇宙歴史、進化史の主体に置く見方で、古代からのブラフマン‐アートマン・モデルであり、アーサー・C・クラークやテーヤール・ド・シャルダン、そしてシュレーディンガー等、多くの人が考えてきた流れだと思います。 では、分子担体情報の進化に人間の子孫の未来を、見ることができるでしょうか?この流れが生成してきたのは、生命の多様化から、多脳化、多意識化であると思われ、ブラフマン‐アートマン・モデルのアートマンを発現させて、宇宙を多意識で志向し、認識する、というところにある、という気がします。とすると、人間脳から真空管、半導体、量子という電子人工脳に進んでいく過程は、「多意識を生成すること」さえできれば、分子担体情報の系統は、電子担体情報の系統に集約されるのではないでしょうか? それは、宇宙自然という大元の流れなのかもしれないと思います。残るは、アライメントで必要なのは、「個体の救済」ということであると、「神学」は考えてきました。
毎日更新しています!
日付別に投稿された有名タレント・芸能人公式YouTubeチャンネルのオススメ新着動画の一覧はYouTube動画情報の記事をチェックしてください。