AI(人工知能)とは ?
AI(人工知能)とは、意思決定を行い、タスクを実行するために人間の知能をシミュレートするコンピューターシステムの理論と開発を指します。
人工知能(AI)または機械知能(MI)は、Techopedia(英語)では「人間に代わって自律的に意思決定を行い、行動を実行することを学習できるテクノロジーの構築と管理に重点を置いたコンピューターサイエンスの分野」と定義されています。1しかし、この定義はあまりにも一般的であり、AI技術が包含するものを理解するための包括的な定義として使用することはできません。AIは1つのタイプの技術ではなく、機械学習(ML)、自然言語処理(NLP)、自然言語理解(NLU)、コンピューター・ビジョン(CV)をサポートするために活用されることが多い、無数のハードウェアまたはソフトウェア技術に適用できる幅広い用語です。
Oracle Cloud Infrastructure(英語)では、「最も簡単に言えば、AIとは、人間の知能を模倣してタスクを実行し、収集した情報に基づいて反復的に改善できるシステムまたはマシンを指す」 2としており、「AIはさまざまな形で現れる」としています。 2
TechopediaやOracleの広範で一般的な定義に比べ、IBMのAIの定義はより具体的です。IBMはAIが「コンピューターや機械を活用して人間の心の問題解決能力や意思決定能力を模倣する」と述べています。3IBMは、「知能の創造」と「人間の知能を理解する機械」というこれらのアイデアに焦点を当て、John McCarthyの記事「What is Artificial Intelligence?(人工知能とは何か)(英語)」を引用して、AIの定義を続けています。McCarthyは「AIはインテリジェントな機械、特にインテリジェントなコンピュータープログラムを作るための科学と工学で、コンピューターを使用して人間の知能を理解するための類似のタスクと関連しているが、AIは生物学的に観察可能な方法に制限される必要はない」としています。4
IBMは、McCarthyの論文の約55年前に遡ってAIの探求を拡大し、数学者、暗号解読者、そして象徴的な「コンピューターサイエンスの父」であるAlan Turingに言及しています。人間とコンピューターを区別することを目的としたチューリングテストの考案者であるAlan Turingの1950年の論文「Computing Machinery and Intelligence(計算機械と知能)(英語)」は、現代のコンピューターサイエンスとAIの基礎の構築に貢献しました。間違いなく「機械は思考できるか?」という疑問を提起した最初の論文です。4
SASは「1950年代の初期のAI研究は問題解決と記号的手法を探求し、1960年代の研究は人間の基本的な推論を模倣するためにコンピュータを訓練することを探求した」と述べています。6この初期の研究は、意思決定支援システムや人間の能力を補完および強化するように設計できるスマート検索システムなど、今日のコンピューターに見られる自動化と形式的推論への道を開きました。
Turing’との比較で、IBMはそのAI哲学をより新しくしたものとしてStuart RussellとPeter Norvigの教科書「Artificial Intelligence(人工知能)(英語)」を紹介しています。1994年に初版が出版され、2020年4月に最新版が出版された「Artificial Intelligence: A Modern Approach(人工知能:現代的アプローチ)」は、AIを研究するための最も人気のあるリソースの1つとなっています。
この教科書で、RussellとNorvigはさまざまなバージョンのAIを探求しています。「一部のバージョンでは人間のパフォーマンスへの忠実さの観点から知性を定義しているが、合理性と呼ばれる知能の抽象的で正式な定義を好むバージョンもある」7とし、合理性を「正しいことをすること」と定義しています。7著者らは、AIの調査を続けながら、知能は「内的思考プロセスと推論、つまり知的行動の特性である」可能性もあると指摘しています。7
RussellとNorvigは、これらの考え方を「人間対理性」「思考対行動」という2つの次元に分類しています。7
IBMは、AIを探索するための4つの潜在的な組み合わせとして、次のようなアプローチを提示しています。
人間的アプローチ:
理想的なアプローチ:
アラン・チューリングは、「機械は考えることができるか」と問いかけました5。IBMは、チューリングのAIの定義は、おそらく「人間のように行動するシステム」というヒューマン・アプローチを使うだろうと論じています4。
RussellとNorvigは「人間対理性、思考対行動という2つの側面から考えられる組み合わせは4つあり、4つすべてに支持者と研究プログラムがあった」と主張しています。7
Techopediaは、「次世代AIはデータを基にした意思決定を人間よりも速く正確に行うことができる、新しいタイプの脳に着想を得た回路やアーキテクチャを生み出すことが期待されている」と推測しています。1
Alan Turing登場以前、AIの例のほとんどは神話や文学作品の中に見出されていました。ギリシャ神話には、おそらくAIの最も代表的な例が含まれています。Pamela McCorduckは著書「Machines Who Think(考える機械)(英語)」の中で、火と鍛冶の神である足の不自由なヘパイストスが「歩くのを助け、鍛冶を手伝う従者を作った」 8と述べています。ヘパイストスのオートマトンの説明として、McCorduckはHomerの「イリアス」を次のように引用しています。
「これらは金色で、見た目は生きている若い女性のようです。その心には知性があり、その中には言葉があり、力があります。不滅の神々から物事の進め方を学んだのです。」9
おそらくギリシャ神話で最もよく知られているオートマトンはタロスでしょう。人や「青銅の雄牛や雄牛の頭をした男」10として描かれることもある巨大な青銅製のオートマトン、タロスはクレタ島を侵略者から守っていました。アキレスと同様、タロスの弱点は足首にありました。
Turingが「コンピューターサイエンスの父」であるならば、Charles Babbageは「コンピューターの父」といえます。11Babbageは差分エンジンとその後継である分析エンジンを発明しました。対数を含む数値表を計算するように設計された分析エンジンには、中央処理装置とメモリが搭載されており、パンチカードでプログラムされており12、汎用コンピューターの先駆けとなっています。
次に象徴的なオートマトンは、Mary Shelleyが1818年に発表したSF・ゴシック小説「フランケンシュタイン」でしょう。記事「The Link Between Mary Shelley’s Frankenstein and AI(メアリー・シェリーのフランケンシュタインとAIのつながり)(英語)」で、著者のCharlotte Mckeeは「ヴィクター・フランケンシュタインの創造と人工知能の間には議論の余地のないつながりがある」としています。12Mckeeは「Shelleyが人工の存在について提起する質問は、AIの作成に関連し、汎用人工知能の可能性と、フランケンシュタインとAIを結びつける多くの倫理的懸念も探求する」と述べています。13
フランケンシュタインは善悪のどちらかを意図して作られたものではありません。小説全体を通して、フランケンシュタインは鋭い心と明瞭さを示し、読むことと話すことの両方を学び、幸せ、怒り、欲望という人間の感情を体験します。Mckeeはそれが「まさに機械知能の具現化であり、小説を通じ、まるでアルゴリズムのように学習していく」と主張します。13
20世紀に入り、AI、少なくとも「悪い機械」という概念は、舞台や銀幕から広まりました。フランケンシュタインの初期の翻案以外では、メディアにおけるAIの最も有名で影響力のある2つの例、特に演劇と無声映画の例としては、次のようなものがあります。
アラン・チューリングが科学に与えた影響は、コンピューターサイエンスやAIに留まらず、計り知れないものがあります。チューリングの業績として、ドイツ軍の暗号機エニグマに対抗するためのコードブレーカーとしての働きは、ナチスドイツの暗号化された通信を解読する上で非常に重要でした。BBCによれば、チューリングは第二次世界大戦を早期終結に導き、1,400万から2,100万人の命を救ったと推定されています。16
チューリングテストは、間違いなくAIの柱の1つです。「Computing Machinery and Intelligence(英語)」では当初「模倣ゲーム」5と呼ばれていたチューリングテストは、コンピューター(またはあらゆる機械)が知的かどうか、考えることができるかどうかを判断する手段です。
Turingは、人間のインタビュアーが、人間のような会話を模倣しようとしているコンピューターなどの機械と人間との会話を評価できると主張しました。被験者の1人が人間の言葉を模倣する機械であることを知っていたため、この人間のインタビュアーは2人の被験者を互いに分離し、各被験者に質問して回答を記録していました。各被験者のインタビュアーへの返答は書き取られるか、または入力されるため、機械が人間の話し言葉として言葉をどれだけうまく表現できるかに会話が左右されることはありません。
インタビュアーが機械と人間を確実に判断できない場合、機械はテストに合格します。機械の答えは、それ自体が正しい答えである必要はなく、人間が出すかもしれない答えであれば十分です。5
今日の人々にとって、逆チューリングテスト、つまり被験者がコンピューターではなく人間であることを証明しなければならないテストの体験は馴染みがあるものでしょう。CAPTCHA(Completely Automated Public Turing Test To Tell Computers And Humans Apart)は、おそらく逆チューリングテストの中で最も認識しやすいものでしょう。17一般的なCAPTCHAの例は次のとおりです。
現代のあらゆる技術の進歩にもかかわらず、2022年6月(本記事執筆)時点で、チューリングテストに合格したAIは存在しません。19 この事実にもかかわらず、AIがチューリングテストに合格しなかったからといって、思考力、インテリジェントな機械、そしていつか機械がテストに合格する可能性を否定する証拠にはなりません。
シェフィールド大学の人工知能とロボット工学の教授であるNoel Sharkeyは、「機械が私たちをだまして人間だと信じ込ませることができなかったとしても、TuringはAIの目覚ましい進歩に興奮することでしょう」と主張しています。19同教授は続けて、Turingが「ディープブルーがチェスで世界チャンピオンのGary Kasparovを破ったとき、またはIBMの Jeopardy Watsonがアメリカのゲーム Jeopardyで 史上最高の2人の人間の対戦相手を倒したと知ったら、喜びのあまり踊っていただろう」と想像しています。20 同教授は「チューリングテストは今でもAIの進歩を図式化する有用な方法であり、今後何世紀にもわたって人間がそのことについて議論するだろうと信じています」と結論付けています。20
AIは一般的に、「AIシステムが人間の能力を再現できる度合い」に基づいてカテゴリー分けされています21 。AIはまだチューリングテストには合格していませんが、人間の機能を実行する上での熟練度の分類に役立ち、より単純で「あまり進化していないタイプ」21のAIと、人間のような機能や能力を発揮できるより進化したタイプのAIとの比較を可能にします。
Forbesによると、AIには、その能力と機能に基づき、大きく分けて2つの分類またはタイプがあります。具体的には、AIとAI対応マシンは、人間の心との類似性と、人間のように思考する能力、さらには感じる能力に基づいて分類されるとしています。21Java T Pointでは、これら7種類のAIがタイプ1グループとタイプ2グループの2つに分けられるとされています。
Techopediaは、超高速の情報処理に対する需要が高まる中、今日のデジタル処理ハードウェアではこのペースについていけないと指摘しています。1今後のニーズに対応するために、研究者や開発者は脳からインスピレーションを得て、エネルギー効率が高くスケーラブルな方法で高速かつ適応学習機能を備えた人工ニューロンとシナプスの代替アーキテクチャを検討しています。1タイプ1のグループは、知能別に分類された「AIの進化段階」1で構成されており、以下の例が含まれます。
タイプ2のグループは、機能別に分類されたAIで構成され、次の例が含まれます。
AIの進化段階は、より速く、より賢く、より効率的な情報処理への要求に基づいて、ある段階から次の段階へと移行していきます。哲学者のJohn R. Searleは、1980年の論文「Minds, Brains, and Programs(心、脳、プログラム)(英語)」の中で「弱いAIと強いAI」という用語を作り出したと考えられており、その中で「私が『強い』AIと呼ぶものを『弱い』または『慎重な』AIと区別することは有益だと思う」と述べています。23
狭義のAIの「弱いものから強いもの」へのパフォーマンスレベルは汎用AIやスーパーAIと簡単に区別できます。Great Learningでは、弱いAIとは「特定のタスクを得意とし、教師あり学習と教師なし学習を使用してデータを処理する、範囲が限定された狭いアプリケーション」であると指摘しています。24逆に、強力なAIは、より広い範囲のアプリケーションを使用し、驚異的な人間レベルの知能を持ち、データを処理するためにクラスタリングと関連付けを使用するとします。24
進化するAIの第一段階であり、能力ベースのAIの中で最も一般的で利用しやすいカテゴリーであるANIは、現在存在する、そして過去に存在したすべてのAIを表しています。AppleのSiriとAmazonのAlexaはいずれも、日常生活で目にしたり使用したりする可能性のある狭義のAIの例です。狭義のAIの一般的な事前決定機能には、「音声認識、自然言語処理、コンピュータービジョン、機械学習、およびエキスパートシステム」1が含まれます。
単に現存するAIを指す以外でも、狭義のAIの要件は単純です。具体的には人間のような知性を使って特定のタスクを実行することです。狭義のAIの「狭義の」とは、AIの限られた、通常は事前定義された機能の範囲を指します。このようなAIは多くの場合、単一の専用タスクを念頭に置いて作成されており、その制限やプログラミングの範囲外のタスクを実行することはできません。
IBMのWatsonやその他のスーパーコンピューターAIは、依然として狭義のAIと見なされています。エキスパートシステムアプローチ、ML、自然言語の進行をどのように使用しているかにかかわらず、「これらのシステムは、すべての反応型・限定記憶型AIに対応」しています。21 Forbesはさらに、「機械学習とディープ・ラーニングを使用して学習する最も複雑なAIでさえ、ANIに該当する」と述べています。21
進化するAIの第2段階である汎用人工知能(AGI)とは、「人間のように学習し、知覚し、理解し、機能できる」AIを指します。21AGIシステムは、さまざまな能力を独立して構築し、ドメイン全体にわたる接続と能力を開発できます。この能力は「トレーニングに必要な時間を短縮し、人間の多機能能力を再現することで、AIシステムを人間と同等の能力を持つものにする」ものです。21 汎用AIとは、いつの日かコンピューターが人間と同じくらい賢く、知的タスクを実行でき、「さまざまな刺激に従って自律的に機能する人間の心の能力」を持つようになるという夢といえます。1
本稿執筆時点では、非公開で開発されている可能性はあるものの、現存する汎用AIシステムは知られていません。
AIの進化の第3段階であり最終段階であるASIは、人間の知能を超えるAIという仮説上の概念を指します。スーパーAIは、思考能力、推論能力、判断能力、計画能力、学習能力、コミュニケーション能力など、強力なAIの主要な特徴の多くを備えているはずです。22その名の通り、ASIは人間の知能を超え、事実上あらゆる分野で最高の人間の知性を上回る知性を生み出す可能性があります。
機能特化型AIの最初のタイプである反応型AIは、リアルタイムのデータを使用して意思決定を行います。「極めて限られた能力しか持たない)最も古いAIシステムのひとつである反応型AIは、記憶に基づく機能を欠き、(自身の)経験(や記憶)を現在の行動に役立てることができない」とされています。21このAIは人間と同じように学習する能力がなく、あらかじめ定義された入力や条件にのみ反応します。「1997年にチェスのグランドマスターであるギャリー・カスパロフを倒したマシン、IBMのディープ・ブルー」21も反応型AIの一例です。
機能特化型AIの2番目である限定記憶型は、過去の経験から保存されたデータを活用して意思決定を行います。このAIは反応型マシンの機能を備えており、多くの場合、限られた期間にデータを保存し、履歴データから学習を実証することができます。
限定記憶型は、今日のほとんどのAIシステムやアプリ、特にディープ・ラーニングを使用し、「将来の問題を解決するための参照モデルを形成するためにメモリに保存された大量のトレーニングデータによってトレーニングされる」ものです。21
自動運転車は、限定記憶型AIの一般的な例です。Edurekaは、今日の自動運転車は「道路を横断する民間人、急な道路、交通信号(および同様の道路ナビゲーション情報)をセンサーで識別して、より良い運転判断を下し、その学習経験を活用することで、将来の事故を防ぐことができる」としています。25
機能特化型AIの3番目のタイプである心の理論AIは、ユーザーの意図や同様の主観的要素を意思決定に取り入れます。反応型AIや限定記憶型AIとは異なり、心の理論AIは現在、開発の初期概念段階、あるいは開発の初期段階にあります。Forbesでは、心の理論AIを、人間の感情、信念、社会的手がかり、思考プロセスを理解し、「主体のニーズを見極める」21ことができる「次のレベルのAIシステム」21と表現しています。Forbesは心の理論AIについてさらに、「人間のニーズを真に理解するには、AIマシンは人間を複数の要因によって心を形作ることができる個人として認識しなければならない」と述べています。21
機能特化型AIの4番目かつ最後のAIである自己認識型AIは、人間の心に似た意識と、目標を立て、データ主導の意思決定を行う能力を特徴としています。これを書いている時点では、自己認識型AIは現時点では仮説的なアイデアに過ぎず、AI研究の最終目標となる可能性のある概念です。Forbesによると、自己認識型AIは他人の感情を理解して呼び起こすことができ、また独自の感情、ニーズ、信念、そして潜在的に欲望を持つことができます。21仮説であろうとなかろうと、自己認識型AIは、SFや同様の大衆文化の多くで容易に見つけることができます。
Techopediaでは、さまざまな機能特化型AIのタイプを区別するための楽しい例として、ポーカーゲームのプレイヤーにAIをそれぞれ例えています。
AIのサブセットである生成AIは、人間のようなテキスト、音声、コード、画像、シミュレーション、動画の制作を専門としています。これらのAIモデルは、非常に大規模なデータセットからパターンや構造を把握するためにDL技術を採用しています。その後、獲得したパターンにより、モデルはサンプリングを通じてコンテンツを作成できるようになります。
生成AIの多様な応用はさまざまな分野で有望な成果をもたらしており、継続的な研究開発がその限界を押し広げています。とはいえ、特に悪用される可能性や、欺瞞的、操作的、偽のコンテンツの生成に関しては、倫理的な懸念が生じます。したがって、生成AIの探求には、責任ある開発、使用、および採用の実践に関する議論が伴う必要があります。
AIについて議論するとき、ディープ・ラーニングとMLはしばしば混同されますが、その理由を理解するのは難しいことではありません。いずれもタスクや目標の達成に重点を置いたAIのサブセットです。ディープ・ラーニングとMLの例は、自動運転車から顔認識ソフトウェアまで、今日では簡単に見つけることができます。ディープ・ラーニングとMLには共通の互換性がありますが、この2つを区別する点もたくさんあります。
機械学習のサブフィールドであるディープ・ラーニングは、Techopedia(英語)では、機械学習アルゴリズムを複雑性と抽象度が増す階層に積み重ねる人工知能(AI)への反復的なアプローチと定義26されており、各ディープ・ラーニングレベルは、階層の前の層から得られた知識を使用して作成されるとしています。26
著者のMichael Middletonは、Flatiron Schoolのブログ記事「Deep Learning vs. Machine Learning — What's the Difference?(ディープラーニングと機械学習 — 違いは?)(英語)」で、ディープ・ラーニングモデルは機械学習に非常に洗練されたアプローチを導入し、特に人間の脳をモデルにしているため、[複雑なタスクを実行する] ように設定されていると述べています。27 Middletonは人間の脳との比較を続け、「複雑で多層的な『ディープ・ニューラル・ネットワーク』は、(ニューロンのような)ノード間でデータを高度に接続された方法で受け渡しできるように構築されており、その結果データの非線形変換がますます抽象的になっている」と指摘します。27
IBMは、ディープ・ラーニングの「ディープ」という言葉について、入力と出力を含む3層以上で構成されるニューラル・ネットワークは、ディープ・ラーニング・アルゴリズムとみなすことができると指摘しています。3 Middletonは、「ディープ・ニューラル・ネットワークをフィードして構築するには膨大な量のデータが必要ですが、すぐに結果を生成し始めることができ、プログラムが実行されれば人間の介入は比較的ほとんど不要である」と述べています。27
Levityの同タイトルのブログ記事「Deep Learning vs. Machine Learning – What’s The Difference?」(英語)で、著者のArne Wolfewicz は、ディープ・ラーニングアルゴリズムは人間の心のようにデータを分析するだけでなく、「教師あり学習と教師なし学習を通じて、人工ニューラル・ネットワーク(ANN)と呼ばれる階層構造のアルゴリズムを使用して」分析を実行できると述べています。28 このANNは人間の脳の生物学的神経回路網に着想を得ており、標準的な機械学習モデルよりもはるかに高性能な学習プロセスを実現しているとしています。28
Zendeskのブログ記事「(英語)Deep learning vs. machine learning: What’s the difference?(ディープ・ラーニングと機械学習:その違いは?)(英語)」の著者であるPatrick Grieveも、深層学習モデルの難しさと誤った結論について「他のAIの例と同様に、ディープ・ラーニングモデルは学習プロセスを正しく行うために多くのトレーニングを必要とします。しかし、意図したとおりに機能する場合、関数型ディープ・ラーニングは、真の人工知能のバックボーンであると多くの人が考える科学的な驚異として受け入れられることがよくあります」述べています。29
Simplilearnの「Top 10 Deep Learning Algorithms You Should Know in 2022(2022年に知っておくべきディープ・ラーニング アルゴリズムトップ10)(英語)」という記事を執筆したAvijeet Biswalは、ディープ・ラーニング・アルゴリズムは自己学習機能を使用することが多いものの、「これらのアルゴリズムは脳が情報を計算する方法を反映するANNに依存している」と指摘しています。30 Biswalは「アルゴリズムは、トレーニングプロセス中に入力分布の未知の要素を使用して特徴を抽出し、オブジェクトをグループ化し、有用なデータパターンを発見し、この トレーニングプロセスは複数のレベルで行われ、アルゴリズムを使用してモデルを構築する」と続けます。30
ディープ・ラーニングが現在広く使われているAIの中で最も複雑なものだという考えは誇張ではありません。ディープ・ラーニング・モデルでは、特定のタスクに対してさまざまな学習モデルが使用されます。Avijeet Biswalは、最も人気のディープ・ラーニング・アルゴリズムのトップ10として次を挙げています。
CNNはデータから特徴を処理・抽出する30複数の層と、「画像内のさまざまなオブジェクトに重みとバイアスを割り当て、画像内のあるオブジェクトを別のオブジェクトと区別できる」26アルゴリズムとして構成されており、「衛星画像の識別、医療画像の処理、時系列の予測、異常の検出」が含まれます。30
Biswalは「Yann LeCunが最初のCNNを開発したのは1988年で、当時はLeNetと呼ばれており、郵便番号や数字のような文字を認識するのに使われていた」と述べています。30
以下は、CNNがデータを処理して特徴を抽出するときに活用する4つの層です。
LSTMはRNNの一種で、情報を学習して保持し、以前に学習した情報を呼び出すように設計されています。学習能力があり、同様に長期記憶保持(長期依存性)を示すことができます。Techopediaでは、LSTMは「配列予測問題で順序依存性を学習でき、機械翻訳や言語モデリングでよく使われる」26としています。
Biswalは、LSTMは「過去の入力を記憶しているため、時系列予測に有用であり、一般的に音声認識、作曲、医薬品開発に使用されている」と述べています。30
LSTMがこのように機能するのは、3つの層またはゲートが通信するリンク構造があるためです。Rian Dolphinは、記事「LSTM Networks | A Detailed Explanation(LSTMネットワーク|詳細な説明)で、これらのゲートが忘却ゲート、入力ゲート、出力ゲートであると述べています。31
LSTMワークフローの例を次に示します。
RNNはシーケンシャルなデータを記憶することができるアルゴリズムであり、「LSTMからの出力を現在のフェーズへの入力として供給できる(そして内部メモリにより以前の入力を記憶できる)有向サイクルを形成する接続」を特徴としています。31RNNは「音声認識、音声認識、時系列予測 ・分析、自然言語処理」26、「画像キャプション、手書き認識、機械翻訳」30によく使用されます。
GANは新しいデータを生成するために互いに競合する2つのアルゴリズムで構成されています。Biswalはこの説明をさらに発展させ、それぞれ「GANには、偽データを生成することを学習するジェネレーターモデルとその誤った情報から学習するディスクリミネーターモデルの2つの要素がある」と述べています。30
GANは「デジタル写真の復元やディープフェイク動画」26 などのプログラムでリアルな画像や漫画のキャラクターの生成、人間の顔写真の作成、3Dオブジェクトのレンダリング30などのプログラムでよく使用されます。ビデオゲーム開発者が古いビデオゲームの低解像度の2Dテクスチャを画像トレーニングによって4K以上の解像度で再現し、アップスケールするのに役立ちます。30
GANワークフローの例を次に示します。
Techopediaでは、RBFNを「教師あり機械学習を使用して非線形分類器、低次元のベクトルで動作する単純な線形分類器よりも高度な関数を使用する非線形関数(高度な関数を使用する非線形関数)として機能する教師あり [ANN] の一種」と説明しています。32Biswalは、RBFNについて「放射基底関数を活性化関数として使用し、入力層、隠れ層、出力層を含む特殊なタイプのフィードフォワード・ニューラル・ネットワークであり、主に分類、回帰、時系列予測に使用される」と述べています。30
RBFNは次のようなフローと特徴によって機能します。
Techopediaでは、MPLを「一連の入力から一連の出力を生成するフィードフォワード [ANN] であり、入力ノードが入力層と出力層の間に有向グラフとして接続されていることを特徴とするフィードフォワード [ANN]」と説明しています。33Biswalは、MLPは「入力層と出力層の数は同じだが、隠れ層が複数ある可能性がある」と指摘しています。30。Techopediaは、MLPはしばしば「入力層と出力層の間に有向グラフとして接続された入力ノードの複数の層」を特徴としており、ノードを通る信号経路は一方向にしか通らず、入力ノードを除く各ノードは非線形活性化関数を持つ」としています。33
MLPは「ネットワークを訓練するための教師あり学習手法としてバックプロパゲーションを活用しており、教師あり学習を必要とする問題解決や、計算論的神経科学や並列分散処理の研究に広く利用されて」います。33MPLは、音声認識、画像認識、機械翻訳などのアプリケーションでよく使用されます。
MPLワークフローの例を次に示します。
Teuvo Kohonen教授によって発明され、自己組織化特徴マップ(SOFM)またはKohonenマップと呼ばれることもあるSOMは、Techopediaでは「教師なし学習を使用して問題空間の2次元マップを構築する [ANN] の一種で、問題空間は、米国議会での投票、色の地図、さらにはウィキペディアの記事間のリンクまで、何でも構わない」とされています。34
言い換えれば、SOMは「自己組織化(ANN)により、データの次元を下げるデータ可視化を可能にし」ます。30SOMは「六角形または長方形のグリッド上にデータの視覚的表現を生成する」ことにでデータの視覚化を活用します。34これは主に、「人間が高次元のデータを簡単に視覚化できないという問題を解決し、ユーザーが高次元の情報を理解できるようにするため」に行われます。30
具体的には、SOMは「人間の脳の視覚野が視神経から生成される信号を使って物体を視覚する方法をミラーリングし、ネットワーク内のすべてのノードが異なる入力に対して異なる反応をするようにする」ことを試みます。34
MLPは教師あり学習にバックプロパゲーションを使用しますが、SOMは「勾配降下法によるバックプロパゲーションのようなエラー修正学習ではなく、ノードが最終的に専門化する競争学習」を活用します。34SOMは「教師あり学習やエラー訂正学習とは異なるものの、アルゴリズムを訓練するためにエラー信号や報酬信号を使用しないため、教師なし学習の一種」とされます。34
Techopediaによると、SOMSは入力データが与えられると、「ユークリッド距離または重み付けされたノード間の直線距離」を計算します。34ベストマッチングユニット(BMU)とは、入力データに最も類似するネットワークのノードを指します。
SOMが「問題セットの処理を進めるにつれて、重みは実際のデータに近づき始め、SOMは、人間がこれらのパターンを 認識する方法と同様に、データ内のパターンを視覚するように自己訓練」します。34
SOMは「気象学、海洋学、プロジェクトの優先順位付け、石油・ガス探査」などの用途によく使用されます。34
SOMワークフローの例を次に示します。
1985年、Geoffrey HintonはDavid AckleyとTerry Sejnowskiと共同でRBMを作成(英語)35しました。Techopediaは、RBMを「生成ネットワークの一種」36と説明しており、これが複雑な入力に取り組むために次元削減のタイプを活用する [協調的な] フィルタリング、特徴学習、分類に一般的に使用されます。36Biswalは、RBMが「次元削減、回帰、トピックモデリング」30にも使用され、「RBMはDBNの構成要素を構成する」と付け加えています。30RBMは、個々のRBMを積み重ねてDBNなどの高度なモデルを作成する場合に特に使用されます。
RBMの名称は、モデルの『制限』となる階層間の通信がない36ことと、RMBのノードが確率的またはランダムな決定を行うことに由来します。36こうしたランダムなプロセスから、RBMは「確率的ニューラル・ネットワーク」と呼ばれることもあります。30
Biswalは、RBMには可視ユニットと隠しユニットの2つの層があり、各可視ユニットはすべての隠れユニットに接続され、RBMにはすべての可視ユニットと隠れユニットに接続されたバイアスユニットがあり、出力ノードはないと述べています。30
RBMのワークフローには、フォワードパスとバックワードパスの2つのフェーズがあります。30
フォワードパスの段階では、RBMは...
バックワードパスの段階では、RBMは...
複雑なタイプの生成ニューラル・ネットワーク(GNN)に相当し、Techopediaでは、DBNを「各レイヤーに2つの目的(前の層の隠れ層と、次に来るものの可視層として機能)がある教師なしのディープ・ラーニング・アルゴリズム」と定義しています。26
Biswalは、DBNは確率的な潜在変数(バイナリ値を持ち、しばしば隠れユニットと呼ばれる)の複数の層で構成される生成モデルであると指摘しています。30
BiswalとTechopediaは、さまざまな小規模な教師なしニューラル・ネットワークで構成される」RBNのグループと総称しています。37TechopediaはDBNを「層間の接続があり、各RBM層は前後の層と通信する」と説明しています。37これらの層は接続されていますが、ネットワークには単一層のユニット間の接続は含まれていないとしています。37
ディープ・ビリーフ・ネットワークの共通の特徴の1つは、層間には接続があっても、ネットワークには単一層内のユニット間の接続が含まれていないことです。
Techopediaによると、MLとニューラル・ネットワーク設計のパイオニアであるGeoffrey Hintonは、スタックRBMを「貪欲な」方法でトレーニングできるシステムを提供するものとして特徴付け、ディープ・ビリーフ・ネットワークをトレーニングデータの深い階層表現を抽出するモデルとして説明しています。37
具体的には、「欲張り学習アルゴリズムは、トップダウンの生成重みを学習するためにレイヤーごとのアプローチを採用」しています。30Biswalは「DBNは、各層の潜在変数の値が1回のボトムアップパスで推測できることを学習する」と述べています。30
この貪欲な教師なしMLモデルは、エンジニアが、データのラベリングが少なく、ランダムな入力と反復的なプロセスに基づいて結果を組み立てる必要がある、構造化されていない、より堅牢なシステムを追求する方法を示しています。37
DBNプロセスの一環として、上の2つの隠れ層でGibbsサンプリングのステップを実行し、上の2つの隠れ層によって定義されたRBMからサンプルを 描画 し、モデルの残りの部分を通る祖先サンプリングのシングルパスを使用して、可視ユニットからサンプルを描画します。30
DBNは「画像認識、ビデオ認識、モーションキャプチャデータ」30、「がんなどの疾患検出のためのヘルスケア分野」26などの用途で一般的に使用されています。
オートアソシエーターやディアボロネットワークとしても知られるAEは、入力から出力を再構成するフィードフォワードアプローチを活用し、圧縮やその他の機能を提供する教師なし [ANN]38であり、入力と出力が同一です。30
教師なし学習問題を解決するためにGeoffrey Hintonによって開発(英語)39されたAEは、最初に入力を圧縮し、次にそれを送信して出力として解凍することによって機能します。この圧縮解除された出力は、多くの場合、元の入力と似ています。Techopediaは、このプロセスは「オートエンコーダーの性質、つまり類似した入力と出力が測定され、実行結果と比較される」ことを例示していると述べています。38
オートエンコーダには、エンコーダとデコーダという2つの主要部分があります。エンコーダは入力をコードにマッピングし、デコーダはコードを入力の再構築にマッピングします。「元のデータはコード化された結果になり、ネットワークの後続のレイヤーはそれを最終的な出力に拡張する」ため、コードは第3の部分とみなされることがあります。38
「ノイズ除去」AEはAEを理解するための便利なツールです。Techopediaによると、ノイズ除去AEは「元の入力とノイズの多い入力を使用して、出力を改良し、元の入力セットを表すものを再構築する」ことです。39
AEは画像処理や創薬(・人気予測)を含む用途に一般的に使用されています。30
AEワークフローの例を次に示します。
TechopediaはMLをAIのサブトピックとして説明しており、データ内のパターンと関係を識別できるアルゴリズムモデルの構築、マシンという言葉をコンピュータープログラムの同義語として コンテキスト化し、機械学習アルゴリズムが追加のデータを受け取るにつれて自動的に精度が高まる仕組みを表す単語の同義語として コンテキスト化することに焦点を当てているとしています。40
Patrick Grieveは、機械学習を「データを解析し、そのデータから学習し、学習した情報に基づいて意思決定を行うアルゴリズムを含む AIのアプリケーション」と定義しています。29
Arne Wolfewiczは、機械学習をより簡単に「コンピュータがデータから学習するときの一般的な用語」28と定義し、「アルゴリズムが明示的にプログラムされることなく特定のタスクを実行するために使用され、代わりにデータのパターンを認識し、新しいデータが到着すると予測を行うコンピュータサイエンスと統計学の交差点」と定義しています。28
「機械学習」という用語は、1959年に米国のIBM社員であった、AIとコンピューターゲームの先駆者であるArthur Samuelが、論文「Some Studies in Machine Learning Using the Game of Checkers(チェッカーゲームを使用した機械学習に関するいくつかの研究)(英語)」で初めて使用しました。41AIの場合と同様に、MLのアイデアも新しいものではありませんでした。Techopediaは、「インターネットの出現やビッグデータ分析とクラウドコンピューティングの最近の進歩まで、MLの商業的な実用化は経済的に実現不可能であり、これはデータのパターンを見つけるためのMLアルゴリズムのトレーニングに非常に大きなデータセットが必要となることが理由だった」としています。40
Wolfewiczは「これらのアルゴリズムの学習プロセスは、アルゴリズムに供給するために使用されるデータに応じて、教師ありまたは教師なしのいずれかになり得る」と述べています。28この機械学習の例を挙げて次のように詳しく説明しています。
従来の機械学習アルゴリズムは線形回帰のように単純なものですが、例えば、高等教育を受けた年数を踏まえて収入を予測することを想定してみましょう。まず、関数を定義する必要があります。つまり、収入= y + x *教育年数ですね。次に、アルゴリズムに一連のトレーニングデータを渡します。例えば、一部の人の高等教育年数とそれに関連する収入に関するデータを含む簡単な表などです。次に、アルゴリズムに線を引かせます。例えば、通常の最小二乗(OLS)回帰などです。その後、アルゴリズムにテストデータを与えることができます。つまり、ご自身の高等教育の年数を与え、ご自身の収入を予測させるのです。28
Wolfewiczは、「機械学習の原動力は普通の統計であり、アルゴリズムは明示的にプログラムされなくても、パターンと推論のみに基づいて予測を行うことを学習した」と主張しています。28
Grieveは、「MLは複雑である一方で、結局のところ、MLは懐中電灯、車やコンピューターの画面と同じ機械的機能を果たしている29とし、MLはデバイスが与えられたデータで継続的に機能を実行し、時間の経過とともに徐々に改善されることを意味すると解釈できる」と述べています。29
今日の企業では、リスク分析、不正検出、音声および画像認識などの予測分析にMLがよく活用されています。
Grieveは、機械学習が「マルウェアを追い詰める(英語)データセキュリティ企業から有利な取引のアラートを求める金融専門家まで、複数の業界にまたがるさまざまな自動化タスクを支えており、AIアルゴリズムは仮想パーソナルアシスタントをシミュレートする方法で常に学習するようにプログラムされている」としています。29 Techopediaは「予測分析やその他の同様の機械学習プロジェクトでは、コンピューターサイエンティスト、データサイエンティスト、機械学習エンジニアが頻繁に必要になる」と付け加えています40
MLのトレーニングに使用される3つの主要な学習アルゴリズムは次の例で構成されます。
Middletonは、「データサイエンティストを業界の目標を追求するために必要なモデルとアルゴリズムを作成し、コンピューターによって生成されたデータの処理と分析を監督する役割」だと説明しています。27この役割には、PythonやJavaなどの言語を含むコーディングの専門知識と、企業や業界のビジネスや戦略的目標に対する強い理解が求められます。27
Middletonは、機械学習エンジニアを「データサイエンティストのモデルを実装し、それを企業の複雑なデータや技術エコシステムに統合して、入ってくるデータに基づいて行動する自動制御やロボットの実装 とプログラミングを行う役割」だと説明しています。27
Techopediaは、機械学習オペレーション(MLOps)がMLエンジニアの仕事の主な焦点であると指摘しています。MLOpsは、機械学習モデルのライフサイクル全体を管理するアプローチ40で、このライフサイクルはトレーニングから日常的な使用、引退までが対象となります。MLエンジニアは、データモデリング、特徴エンジニアリング、プログラミングに加えて、数学と統計の知識を持っている傾向があります。40
企業では、データサイエンティストとMLエンジニアがさまざまなAIベースのプロジェクトで協業することになると思われます。特定のビジネス問題を解決するためにどのタイプの学習アルゴリズムが最も効果的かを決定すること、あるいはどのデータを学習に使用すべきか、機械学習モデルの結果をどのように検証するかを決定すること」に取り組むこともあります。40
Techopediaでは、MLモデルを「データに対して実行されたMLアルゴリズムの出力」と定義しています。40モデルとアルゴリズムの区別に関しては、Finance Trainの記事「Difference Between Model and Algorithm(モデルとアルゴリズムの違い)」の著者はこう述べています。「アルゴリズムとは、問題を解決するために従うべき一連のルールであり、問題を解決するために正しい順序で従う必要のある一連のルールがあります。モデルとは、アルゴリズムを使って構築するものです。」42
MLモデルを作成するためのワークフローの例を次に示します。
BMCBlogsの記事「Bias & Variance in Machine Learning: Concepts & Tutorials(機械学習におけるバイアスと分散: 概念とチュートリアル)(英語)」で、著者のShanika Wickramasingheは「より大きなデータセット、多様な実装、アルゴリズム、学習要件により、MLモデルの作成と評価はさらに複雑になっている」としています。43さらに「アルゴリズムに問題があったり、データセットが汚染されていたりすると、MLモデルに悪影響を与える可能性がある」と続けます。43
Techopediaによると、MLアルゴリズムの透明性と説明可能性が望まれているにもかかわらず、「機械学習のアルゴリズムの透明性は、特定の予測を行うためにどのアルゴリズムが使われたかを共有する以上に複雑な場合があり」ます。40今日の人気のアルゴリズムの多くは無料で入手できますが、偏りが根付いていることが多い独自のトレーニングデータは独自のものであり、アクセスが困難です。
機械学習アルゴリズムにおけるバイアスとは?Wickramasingheはバイアスを次のように説明しています。
Wickramasingheは高バイアスモデルには次の特徴があるとしています。
ディープ・ラーニングや ML と同様に、MLにおけるバイアスと分散は混同され、混同されることがよくあります。Wickramasingheは分散を次のように説明しています。
Wickramasingheは高分散モデルには次の特徴があるとしています。
アンダーフィットとオーバーフィッティングは、モデルがどのようにデータと一致しないか、を表す用語です。43
Wickramasingheは「モデルのフィッティングは、与えられたデータセットから正確な予測を返すかどうかに直結する」と指摘しています。43
Techopediaは、アンダーフィッティングを「MLモデルが非常に単純で学習ができない場合に発生する状態」と説明しています。44
著者は「予測モデルが訓練データでうまくいかない場合、アンダーフィッティングが最も可能性の高い理由である」と付け加えています。44
反対に、オーバーフィッティングとは、機械学習やディープ・ニューラル・ネットワークのモデルが、新しいデータに対しての実行よりも、トレーニングデータに対しての実行で著しくパフォーマンスが高い場合に発生する状態と説明されています。44
著者は、MLモデルが無関係な(ノイズの多い)データとパターンを形成する重要なデータを区別できないために新しいデータについて正確な予測ができない場合には44オーバーフィッティングが原因の可能性が高いと述べています。
Wickramasingheは「バイアスと分散は反比例関係にあり、低バイアスかつ低分散のMLモデルは存在しません」とします。43したがって、特定のデータセットに合わせてMLアルゴリズムを調整すると、バイアスが減少し、モデルの予測の不正確さの確率とともに分散が増加する可能性が高くなります。同様に、データセットにより適したモデルを作成することで、予測が不正確になるリスクが減り、分散が減り、バイアスのリスクが高まります。
データエンジニアには、このように分散とバイアスの間のバランスを常に取ることが求められます。Wickramasingheによれば「分散の大きさがMLアルゴリズムが悪いことを意味するわけではなく、機械学習アルゴリズムはある程度のばらつきに対応できるはずです。」43
同氏は、データエンジニアは次の方法でバイアスと分散のトレードオフに取り組むことができると主張しています。
Wickramasingheは、一般的なアルゴリズムと、バイアスと分散の間で予想される動作を一覧にした表を示しています。
アルゴリズム | バイアス | 分散 |
線形回帰 | 高バイアス | 低分散 |
意思決定ツリー | 低バイアス | 高分散 |
バギング | 低バイアス | 高分散(決定木未満) |
ランダムフォレスト | 低バイアス | 高分散(決定木やバギング未満)43 |
Wolfewiczは AI、ML、ディープ・ラーニングを次のように定義しています。
Middletonは、機械学習とディープ・ラーニングの主な違いには以下の要素が関係していると主張しています。
私たちが今日使用しているテクノロジーの多くは、私たちが当たり前として捉えている機械学習とディープ・ラーニングのアルゴリズムに依存しています。Grieveは、カスタマーサービスでは、今日のAIアプリは「セルフサービスの促進、エージェントの生産性の向上、ワークフローの信頼性の向上に使用されている」と述べています。27
顧客からの問い合わせが次々とこれらのアルゴリズムに送られ、情報が集約され、処理されてから、顧客への回答が生成されます。Grieveは、機械学習とディープ・ラーニングはどちらも「NLPを強化し、コンピューターがテキストと音声を理解できるようにする のに役立ちますが、Amazon AlexaとAppleのSiriは、音声認識を使用して消費者の質問に答えることができる『仮想エージェント』の2つの良い例」と述べています。27
チャットボットは、顧客に応答するためのAIを活用したテクノロジーのもう1つの例です。Grieveは、「ZendeskのAIチャットボットであるAnswer Botは、サポートチケットのコンテキストを理解し、顧客に提案すべきヘルプ記事を学習するために、ディープ・ラーニングモデルを組み込んでいる」と指摘しています。27