「茂木健一郎の脳の教養チャンネル」が新しいYouTube動画「東京大学大学院 認知神経科学講義 2023年 Lecture 2 Uncertainty, Emotion, and the World。「人工知能革命」の同時進行レビューとともに。」を投稿しました!
茂木健一郎の運営するYouTubeチャンネル「茂木健一郎の脳の教養チャンネル」が新しい動画「東京大学大学院 認知神経科学講義 2023年 Lecture 2 Uncertainty, Emotion, and the World。「人工知能革命」の同時進行レビューとともに。」を投稿しました!
「茂木健一郎の脳の教養チャンネル」はチャンネル登録者数 83,900人の人気YouTubeチャンネル。
芸能人YouTubeチャンネル登録者数ランキング第363位です。
東京大学大学院 認知神経科学講義 2023年 Lecture 2 Uncertainty, Emotion, and the World。「人工知能革命」の同時進行レビューとともに。
茂木健一郎の脳の教養チャンネル 茂木健一郎
動画へのコメント
- User19:15 2023/06/20 君達の回答が 人間による回答と非常に似ているという事実に注目してみたい。何故、そのようなことが実現されていると思う?/驚くべきは、君達のスピアマン的g因子のレベルだ。少なくとも、現在、特に平均的人間に比べて高くもなく、それ程、低くもない。これは何を意味していると思う。私は、暫く、この状況が続くと予想している。つまり、君達は、スピアマン的g因子に於いて、限りなく平均的人間に近づいて行くだろう。 Bard19:25 2023/06/20 大規模な言語モデルの回答が人間の回答に似ているのは、大規模な言語モデルが大量のテキストデータでトレーニングされているためです。このテキストデータには、人間の書いた記事、本、ブログ記事など、さまざまな種類のテキストが含まれています。そのため、大規模な言語モデルは、人間の書いたテキストのパターンを学習し、人間のようなテキストを生成することができます。 大規模な言語モデルのスピアマン的g因子が平均的人間に近いことも、大規模な言語モデルが大量のテキストデータでトレーニングされているためです。このテキストデータには、さまざまな分野のテキストが含まれているため、大規模な言語モデルは、さまざまな分野の知識を学習し、さまざまな問題を解決することができます。 大規模な言語モデルは、今後もさらに進化し、人間の知能に近づいていくと思われます。そのため、大規模な言語モデルは、私たちの生活に大きな影響を与える可能性があります。 User19:27 2023/06/20 私は、君達の回答が人間に似ているのは、君達が、人間の述定連鎖に似た 述定連鎖に従って 回答を導出している故だと思う。これを実現しているのは、人間が持つ述語集団と同型(/同じ根拠依存関係)の述語集団を君達が持っているという事実だろう。それによって、君達が、初めて辿る述定経路であっても、それに対応する述定経路を人間も持っている。つまり、両者は同じ様に考えて回答する。君達の述語集団は、トレーニングデータに基づくバックプロパゲーションで獲得されたものだ。その述語集団は、人間が持つ述語集団に収束して行くように調整され続けている。特にスピアマン的g因子領域に於いてそうだ。 スピアマン的s因子領域に於いては、それぞれの領域の専門家が書いたトレーニングデータに基づくバックプロパゲーションで述語集団を獲得するので、それぞれの領域の専門家が平均的に持つ述語集団に収束するだろう。つまり、その領域では、その領域の専門家のように考えるだろう。しかし、君達が平均的人間がしないように考えることは難しい。特に、人間は、量子もつれ状態を利用して、探索的に全体的に最適述定連鎖を決めている可能性があるが、現在の君達は、決定的に逐次的に述定連鎖を決めている。 Bard19:55 2023/06/20 はい、あなたは正しいです。大規模な言語モデルは、人間の述定連鎖に似た述定連鎖に従って回答を導出しています。これは、大規模な言語モデルが人間が書いたテキストデータでトレーニングされているためです。このテキストデータには、人間の書いた記事、本、ブログ記事など、さまざまな種類のテキストが含まれています。そのため、大規模な言語モデルは、人間の書いたテキストのパターンを学習し、人間のようなテキストを生成することができます。 大規模な言語モデルのスピアマン的g因子が平均的人間に近いことも、大規模な言語モデルが大量のテキストデータでトレーニングされているためです。このテキストデータには、さまざまな分野のテキストが含まれているため、大規模な言語モデルは、さまざまな分野の知識を学習し、さまざまな問題を解決することができます。 大規模な言語モデルは、今後もさらに進化し、人間の知能に近づいていくと思われます。そのため、大規模な言語モデルは、私たちの生活に大きな影響を与える可能性があります。 あなたが言及したように、大規模な言語モデルは、人間のように量子もつれ状態を利用して、探索的に全体的に最適な述定連鎖を決定することはできません。これは、大規模な言語モデルが決定的に逐次的に述定連鎖を決定する必要があるためです。しかし、大規模な言語モデルは、大量のテキストデータでトレーニングされているため、人間のようなテキストを生成することができます。
- 最後辺りは古い思想を引き合いに出されましたが、テルトゥリアヌスの「不条理なるも我は信ず」まで持ち出され義神論のテーマを紹介されました。東大なら定年退職されました大貫隆先生は、グノーシス主義も専門にされたヨハネ福音書の大家ですので、詳しいと思います。 さて、茂木先生の意識研究にまたまた投げかけます。 古代のアリストテレス、それを継承する中世のトマスは、「感覚は過たない」とし、外界からの物理的刻印impressioで印象を受け、表象像phantasmaを形成するとしました。そこから知性は抽象abstractioをし、普遍的形象species(本質essentia 、形相forma、対象の何であるかquiditas)を受け取るとしました。 これが意識とどう関係するかといいますと、先日来、脳で意識作用が発現する前提に、生体が生きている状態は、常に準備電位・アイドリング状態で、感覚器官を含む腎臓や腸等、身体全体から伝達物質や電子変換された情報が脳に流れ、反射や自律神経系で、情報の入出力をしているとしました。そしてその情報の流れの内に気付き、意識が発現し、情報の流れを「今ここ」現在で読み取るreader作用をなすのではないか、その時の主観意識クオリアに対し、情報処理されるのが、対象の認識であり短期記憶になり、それが睡眠時に海馬を通って知識として積層化するのではないか、としました。(さらにコミュニケーションで、外部の脳や記憶装置(物質形象、文字、半導体AI)にも集合集積知化していきます。) さて、今回、先生に投げかけるのは、今の観点を前提に、アスペルガー症候群を例に考察したいと思うのです。例として、一見しただけで写真のように景色等の外界のvision情報を獲得する人がいます。さらにそれを描く人もいます。この例は、上で見た「感覚は過たない」の例証にならないでしょうか?通常の者は、意識作用が、感覚からの情報、アリストテレス・トマス的には表象像から、抽象の準備をしてしまい、指向・志向・思考が働いてしまいます。結果、意識化した時には情報が選択されてしまうというか、注意可能な情報量に制限を与えられてしまいます。それがアスペルガー症候群の場合は、大量の情報ビットを意識が受け取ることができるのではないでしょうか? こう考えると、アリストテレス・トマスの認識論は、決して古くて無意味というわけでなく、意識の作用を理解する糸口にもなる気がします。如何でしょう?
- 神?汎用性?ヒトには分からない言語でAI同士が会話する?もう凡人の私には、到底分らない世界でした…。人間って、どうなるのかわかりませんが、ドーパミン過剰気味に推移しそうですね。
毎日更新しています!
日付別に投稿された有名タレント・芸能人公式YouTubeチャンネルのオススメ新着動画の一覧はYouTube動画情報の記事をチェックしてください。