人工知能に関する一般事項 (G検定)
[履歴] [最終更新] (2021/07/13 22:42:28)
最近の投稿
注目の記事

概要

G検定のシラバスにおける

  • 「人工知能(AI)とは(人工知能の定義)」
  • 「人工知能をめぐる動向」
  • 「人工知能分野の問題」

に関連する事項を記載します。

エニアック (ENIAC)

1946年にアメリカのペンシルバニア大学で開発された、真空管を使った巨大な計算機です。

ダートマス会議

  • 1956年にアメリカで開催されました。
  • ジョン・マッカーシーが、「人工知能」という言葉を初めて使った会議です。
  • 参加者のニューウェルとサイモンは、世界初の人工知能プログラムといわれる「ロジック・セオリスト」をデモンストレーションし、コンピュータを用いて数学の定理を自動的に証明することが実現可能であることを示しました。

人工知能

「人工知能」の定義は、専門家の間でも共有されているものはありません。

人工知能をレベル別に分類すると以下のようになります。

  • レベル1 → シンプルな制御プログラムが該当します。
  • レベル2 → 古典的な人工知能が該当します。探索・推論、知識データの利用によって、複雑な振舞いをします。
  • レベル3 → 機械学習を取り入れた人工知能が該当します。パターン認識の古くからの研究が、ビッグデータ時代を迎えて発展しました。検索エンジンや交通渋滞予測などが登場しました。
  • レベル4 → ディープラーニングを取り入れた人工知能が該当します。特徴量とよばれる変数を自動的に学習する製品やサービスがこのカテゴリに属します。画像認識、音声認識、自動翻訳などへの応用が進んでいます。

第一次 AI ブーム

  • 1950年代後半 〜 1960年代。
  • 推論・探索の時代とよばれます。
  • トイ・プロブレムを解くことが限界でした。

第二次 AI ブーム

  • 1980年代。
  • 知識の時代とよばれます。
  • 専門知識を溜め込んだ「エキスパートシステム」が登場しました。
  • 知識を蓄積・管理することの大変さが明らかとなりました。
  • 日本では、政府によって「第五世代コンピュータ」と名付けられた大型プロジェクトが推進されました。

第三次 AI ブーム

  • 2010年〜。
  • 機械学習・特徴表現学習の時代とよばれます。
  • ビッグデータとよばれる大量のデータを用いることで、機械学習が実用化されました。
  • 特徴量を自ら習得するディープラーニングが登場しました。
  • 人間を越える超知性が誕生する「シンギュラリティー」の可能性への懸念が広まりました。
    • レイ・カーツワイルは、2029年に、人口知能が人間よりも賢くなると予測しました。広義のシンギュラリティーです。
    • レイ・カーツワイルは、2045年に、シンギュラリティーが起きると予測しました。

AI 効果

人工知能で何か新しいことが実現され、その原理がわかってしまうと、「それは単純な自動化であって知能とは関係ない」と結論付ける人間の心理的な効果を「AI 効果」とよびます。

Mini-Max 法、Alpha-Beta 法

Uploaded Image

Alpha–beta pruning

Mini-Max 法

  • 前提として、深さ優先探索を考えます。
    • 探索木の左から探索していきます。
  • 図において "MAX" は「自分」が、一つ先の候補から最大値を選択するであろうと仮定した「自分」のスコアです。
  • 図において "MIN" は「相手」が、一つ先の候補から最小値を選択するであろうと仮定した「自分」のスコアです。

Alpha-Beta 法

  • Mini-Max 法における、枝刈りの手法です。
  • 「自分」は Alpha プレーヤーです。
  • 「相手」は Beta プレーヤーです。
  • 図において「グレーアウトされた 5」は Alpha カットです。
    • Alpha が現状 5 であり、それより小さい値 4 が出たため枝刈りされました。
    • 「自分」の立場における枝刈りです。
  • 同様に、「相手」の立場で行なう枝刈りを Beta カットとよびます。

ロボットの行動計画

プラニング

  • ロボットの行動計画を探索によって作成する技術です。古くから研究されています。
  • ロボットの行動計画のことを「自動計画」ともよびます。

STRIPS

  • プラニングの研究において、1971年に リチャード・ファイクスとニルス・ニルソンによって開発されました。
  • 「前提条件、行動、結果」の三つを組み合わせて、自動計画を記述できる言語です。
  • STRIPS は Stanford Research Institute Problem Solver の略です。

SHRDLU

  • 1968年から1970年にかけてテリー・ウィノグラードによって開発されたシステムです。
  • 「積み木の世界」に存在する様々な物体を、英語による指示を受け、プラニングして動かすことができました。
    • 自然な会話をすることができます。
  • この成果は、後に Cyc (サイク) プロジェクトに引き継がれました。
    • 1984年からスタートした「すべての一般常識をコンピュータに取り込もう」というプロジェクトです。
    • 第二次 AI ブームにおける、知識に関する研究の一つです。
    • 現在でも継続されています。

モンテカルロ法

  • 乱数を用いた試行を繰り返すことで、近似解を求める手法です。
  • ボードゲームへの応用においては、Alpha-Beta 法を用いることができるのは、探索数の問題があるため、終盤付近となります。
  • 序盤から中盤にかけては、モンテカルロ法を用いることができます。
    • ランダムに手を指し続けて終局させる、プレイアウトを繰り返します。
    • 勝率をスコアとして評価します。

イライザ (ELIZA) 効果

  • ELIZA は、1964年から1966年にかけて、ジョセフ・ワイゼンバウムによって開発されました。
  • あたかも本物の人間と対話しているかのような錯覚に陥ることを ELIZA 効果とよびます。

マイシン (Mycin)

  • エキスパートシステムの初期の例です。
  • 1970年代にスタンフォード大学で開発されたプログラムです。
  • 感染症の専門家のように振る舞うことができました。

DENDRAL

  • スタンフォード大学のエドワード・ファイゲンバウムによって、1960年代に開発されました。
  • Mycin よりも前に開発されたエキスパートシステムです。

オントロジー

  • 哲学用語で「存在論」という意味です。
  • 人工知能においては「概念化の明示的な仕様」という定義が一般的です。
  • 意味ネットワークにおいて、オントロジーに従った記法で記述することで、知識を共有できるようになります。
    • 「is-a」と「part-of」の関係が重要です。
  • ヘビーウェイトオントロジー
    • Cyc プロジェクトが含まれます。
    • 概念間の関係性も人間が記述します。
  • ライトウェイトオントロジー
    • 概念間の関係性はコンピュータに見つけさせようという考え方をとります。
    • データマイニング、ウェブマイニングで利用されます。
    • セマンティック Web という、Web サイトが持つ意味をコンピュータに理解させ処理させる技術の研究に展開されています。
    • LOD (Linked Open Data) という、コンピュータ処理に適したデータを公開・共有するための技術の研究に展開されています。
    • IBM が開発したワトソンは、Wikipedia の情報をもとにライトウェイトオントロジーを生成して解答に使っています。

ILSVRC

  • ImageNet Large Scale Visual Recognition Challenge の略です。
  • 画像認識の精度を競います。
  • 2012年、トロント大学のジェフリー・ヒントンが率いる Super Vision が圧倒的な勝利を収めました。
    • ディープラーニングの手法が用いられました。
    • この時に開発されたニューラルネットワークのモデルは AlexNet とよばれます。

チューリングテスト

  • 人工知能ができたかどうかを判定する方法の一つです。
  • アラン・チューリングが提唱しました。
  • ELIZA はチューリングテストをパスしていません。
  • 1991年以降、ローブナーコンテストが毎年開催されており、チューリングテストに合格する会話ソフトウェアを目指しています。
  • 1950年の論文の中で、50年以内に質問者が5問質問した後の判定でコンピュータを人間と誤認する確率は30%であると見積りました。
  • 現在もまだチューリングテストにパスする会話ソフトウェアは現れていません。

中国語の部屋

チューリングテストに合格しても本当に知能があるかは分からないという議論のための思考実験です。

フレーム問題

  • 1969年にジョン・マッカーシーとパトリック・ヘイズによって提唱されました。
  • 「ロボットは課題解決の枠にとらわれて、その枠の外を想像するのが難しい」という問題です。

シンボルグラウンディング問題

記号システム内のシンボルがどのようにして実世界の意味と結びつけられるかという問題です。

関連ページ
    概要 G検定に向けて、比較的新しいモデルについて記載します。 深層生成モデル 生成モデル 画像のデータセットがどのような分布になっているかを推測し、その分布に基づいて、元の画像と似たような画像データを生成するモデルです。 深層生成モデル ディープラーニングを取り入れた生成モデルのことです。 潜在空間