ブログ(2017.12)
「脳科学とAI のフロンティア」特集(人工知能学会誌(2017.11))を読んで、の詳細:
人工知能学会誌(2017.11)の「脳科学とAI のフロンティア」特集を読んで、
− 第1次AIブームの時に執筆した卒論1969・修論1971の視点からのコメント −
■記事「特集「脳科学とAI
のフロンティア」にあたって」:
本文を引用すると、
「深層学習は,実用的に動作する計算機能をもつ新皮質モデルの初の候補となった」
「ニューラルネットワークを用いて脳のようなAI を実現しようとする場合に,
多くの脳器官においてその基本単位はマカロックピッツのニューロンモデルで
十分であるという可能性が格段に高まった」
とのことである。
第1次AIブームの時代の1968〜1971に卒論、修論でニューラルネットワークの
研究をした者としてはうれしい話である。
■記事「もうちょっとだよなー,ディープラーニング」:
甘利先生と面識はないが、電子通信学会オートマトン研究会(1970.12)で
甘利先生の次に、私(修士2年)は以下の研究発表をした。
★「思考過程のシミュレ-ション」(電子通信学会オ-トマトン研究会資料、A70-76)
甘利先生の記事の中に、
「「googleの猫」という話があるが、あんな茶番劇で満足してはいけない」
とあるが、同感。私も2014.1に以下のブログを書いている。
『コンピュータが1000万枚の画像から猫を認識したというのはホント?』
■記事「全脳ネットワーク分析 ─コネクトームのリバースエンジニアリング─」
本文を引用すると、
「ネットワークをコミュニティに分解することは、このネットワークで表現される
複雑系を理解するために、最初に試みるべき基本的な分析作業である」
「モジュラリティ最大化によるコミュニティ検出の考え方」
などの記述ある。
この手法は、ソフトウェア工学における大規模ソフトウェアの
モジュール分割と類似している。
拙著「ソフトウェア工学(第3版)」(朝倉書店)では、以下のように記述している。
『モジュールの独立性という観点から,
モジュール強度は強いほどよく,
モジュール結合度は弱いほどよい.』
■記事「推移的推論の脳メカニズム ─汎用人工知能の計算理論構築を目指して─」
本文中の、
「学習された刺激1と刺激2の関係と、刺激2と刺激3の関係が、脳の中で結び付くことによって、直接経験していない刺激1と刺激3の関係が出来上がる。」
という高次条件付けの話や、
後半の連続対連合課題によって、視覚刺激の関係性(A1→B1→C1)と(C1→大報酬)を学習させた後に、
「A1が提示された段階で、大報酬を予測することが可能となる」
という間接的報酬予測課題の話に関しては、
上記(★印)の私の学会発表論文における、「拡散と集中による思考のモデル」に対応する。このモデルでは、出力を入力にフィードバックすることで、連続する連想を可能としている。
■記事「ヒト海馬の神経回路モデルの構築」
本文中の、
「2.2節
海馬は閉回路構造を持つ」の中の、
「海馬は大脳皮質から入力を受けると・・・と呼ばれる脳部位を一巡したのち、
大脳皮質に出力を戻す(図2)。このような閉回路構造は脳の中でもまれな構造で、
ラット、サル、ヒトなどで共通である。」
「連想記憶回路は、海馬の記憶の主要素として重要視されている。」
という記述に関しても、
上記(★印)の私の学会発表論文における、「拡散と集中による思考のモデル」に対応する。
■記事「意味認知と脳内情報表現」
本文中の、
「2. 意味の脳内分散表現」の中の、
「普遍的概念としての意味を構成する感覚や機能、記号に対応した意味の要素が、分散した脳領域において表現されると想定する。」
「さらに分散した各脳領域の中にも、意味要素の詳細な局在的表現が存在する。」
「このように大域的には分散し、局所的には局在して表現される意味要素が、どのようにして他の意味要素とともに統合されて、意味概念を形成し得るのであろうか?」
という記述に関しても、
上記(★印)の私の学会発表論文における、「拡散と集中による思考のモデル」に対応する。具体的には、この学会発表論文の中で以下のように記述している。
『本論文では、思考言語に注目し、それを意識の面からとらえ、
大脳におけるエネルギー分布の集中化作用とし、
他方、集中したエネルギーの拡散化作用を連想機能として、
これら両作用の交互反復過程を思考過程と考えた。』
『思考の基盤には、意識と連想があり、前者を集中関数g、
後者を拡散関数fで表現して、図1のような系を考えた。』
■