汎用人工知能

提供:EverybodyWiki Bios & Wiki
移動先:案内検索


汎用人工知能 (Artificial general intelligence;AGI) は人間のように学習し言葉や物事を理解する能力のある架空の[1] 機械知能。典型的に人工知能研究の目指すべき到達目標であり、未来学やサイエンス・フィクションにおけるトピックである。しばしばAGIは強いAIと関連をもち、[2][3][4] 汎用AI[5] の呼称がある。 一部の学術情報源では、意識を体現する機械に「強力なAI」という用語を予約している。[6] 今日のAIは、AGIそのものから数十年科学的に離れていると推測されている。[7][8]

強いAIとは対照的な、弱いAI[9] (特化型AIとも呼ばれる[3]) は人間の認知能力を実行することを目的としていない。 むしろ、弱いAIは、特定の問題解決または推論タスクを研究または達成するための利用に限定されている。

2017年の時点で、40を超える組織がAGIを積極的に研究している。[10]

2022年に試作品が公開される予定の、テスラ社(CEO:イーロン・マスク)が開発を進める二足歩行ロボットTesla Bot(テスラボット)に搭載される可能性が示唆されている。

翻訳用テーブル
引数 指定内容 既定値 説明
1 翻訳対象のURL en:Artificial general intelligence
2 翻訳元の言語 English
3 翻訳先の言語 Japanese

要件[編集]

汎用人工知能を判定するためのさまざまな基準が提案されているが(最も有名なのはチューリングテスト)、これまでのところ、すべての人を満足させる定義はない。 ただし、人工知能の研究者の間では、次のことを行うには知能が必要であるという幅広い合意がある。[11]

  • 理由を説明し、戦略を使用し、パズルを解き、不確実性の下で判断を下す。
  • 常識知識を含む知識を表す;
  • 計画する;
  • 学習する;
  • 自然言語で意思疎通する;
  • これらすべてのスキルを共通の目標に向けて統合する。

他の重要な機能には、インテリジェントな行動が観察される世界で感知する機能(例:参照)と行動する機能(例:オブジェクトの移動と操作)が含まれる。[12] これには、危険を検出して対応する機能が含まれる。[13] インテリジェンスへの多くの学際的なアプローチ(認知科学、計算知能、意思決定など)は、想像力(プログラムされていない精神的なイメージや概念を形成する能力としてとらえられる)、自律性などの追加の特性を考慮する必要性を強調する傾向がある[14][15] これらの機能の多くを示すコンピューターベースのシステムは存在するが(たとえば、計算創造性、自動推論、意思決定支援システム、ロボット、進化的計算、インテリジェントエージェントを参照)、まだ人間レベルではない。

人間レベルのAGIを確認するためのテスト[編集]

人間レベルのAGIを確認するための以下のテストが検討されている。[16][17]

チューリング・テスト (チューリング)
機械と人間の両方が視界を隠されて会話し、どちらが機械であるかを評価する必要がある。これは、評価者をかなりの時間だまし取ることができる場合、テストに合格する。 注:チューリングは、何がインテリジェンスとして適格であるかを規定していない。それがマシンであることを知っているだけで失格にする。
ウォズニアック・テスト (ミスターコーヒーテスト)(ウォズニアック)
機械は平均的なアメリカの家に入り、コーヒーの作り方を理解する必要があります。コーヒーマシンを見つけ、コーヒーを見つけ、水を加え、マグカップを見つけ、適切なボタンを押してコーヒーを淹れます。
ロボット大学の学生テスト (Goertzel)
機械は大学に入学し、人間と同じクラスを受講して合格し、学位を取得する。
雇用テスト (Nilsson)
機械は経済的に重要な仕事をし、少なくとも同じ仕事で人間と同じように機能するかテストする。

AGIが解決する必要がある問題[編集]

この問題は非公式に「AI完全」または「AIハード」として知られている。AI完全とは一般的に、人間にとっては簡単であるがAIにとって難しい問題を解けることを指す。それらを解決することは、目的固有のアルゴリズムの能力を超えて、人間の知性または強力なAIの一般的な適性と同等であることを意味する。[18]

AI完全問題には、一般的なコンピュータービジョン、自然言語理解、および現実世界の問題を解決しながら予期しない状況に対処することが含まれると仮定されている。[19]

AI完全な問題は、現在のコンピューターテクノロジーだけでは解決できず、人間による計算も必要である。 この問題は、たとえば、CAPTCHAが目的としているように、人間の存在をテストすることや、コンピュータセキュリティがブルートフォース攻撃を撃退するために役立つ可能性がある。[20][21]

歴史[編集]

古典的なAI[編集]

現代のAI研究は、1950年代半ばに始まった。[22] 第一世代のAI研究者は、人工知能がすぐに実現可能であり、それがわずか数十年で作ることができることを確信していました。 AIのパイオニアであるハーバートA.サイモンは、1965年に次のように書いています。「機械は、20年以内に、人間ができるあらゆる仕事をすることができるようになるだろう。」[23] 彼らの予測は、スタンリーキューブリックとアーサーC.クラークのキャラクターHAL 9000のインスピレーションであり、彼らは、AI研究者が2001年までに作成できると信じていたものを具体的に書き記した。AIのパイオニアであるマービンミンスキー当時のコンセンサス予測に従って、HAL9000を可能な限り現実的にするプロジェクトのコンサルタントだった。[24] クレビエは、1967年にこの件について「1世代以内に...「人工知能」を作成する問題は実質的に解決されるだろう」と述べたと言われている。[25] ミンスキーは彼が誤って引用されたと述べているが。[要出典]

しかし、1970年代初頭、研究者がプロジェクトの難しさを大幅に過小評価していたことが明らかになった。 資金提供機関はAGIに懐疑的になり、研究者は有用な「応用AI」を作成するように圧力をかけられた。[26] 1980年代が始まると、日本の第5世代コンピュータプロジェクトはAGIへの関心を復活させ、「カジュアルな会話を続ける」などのAGIの目標を含む10年のタイムラインを設定した。[27] これとエキスパートシステムの成功に応えて、業界と政府の両方が資金を現場に送り返しました。[28] しかし、1980年代後半には、AIに対する信頼が見事に崩壊し、第5世代コンピュータープロジェクトの目標は達成されなかった。[29] 20年ぶりに、AGIの差し迫った達成を予測したAI研究者は根本的に間違っていることが示された。 1990年代までに、AI研究者は、無意味な約束をしたという評判を得ていた。 彼らは「野蛮な夢想家」と呼ばれることを恐れて、「人間レベル」の人工知能についての言及を避け、まったく予測をすることに気が進まなくなった。[30][31]

特化型AI研究[編集]

1990年代から21世紀初頭にかけて、主流のAIは、人工ニューラルネットワークや統計的機械学習などの検証可能な結果と商用アプリケーションを生成できる特定のサブ問題に焦点を当てることで、はるかに大きな商業的成功と学術的尊敬を獲得した。[32] これらの「応用AI」システムは現在、テクノロジー業界全体で広く使用されており、この分野での研究は、学界と産業界の両方で非常に多額の資金が提供されている。 現在、この分野での開発は新たなトレンドと考えられており、10年以上で成熟段階が見込まれている。[33]

ほとんどの主流のAI研究者は、さまざまなサブ問題を解決するプログラムを組み合わせることで、強力なAIを開発できると考えている。 ハンスモラベックは1988年に書いた:

「人工知能へのこのボトムアップルートは、いつの日か従来のトップダウンルートと半分以上一致し、推論プログラムでは非常に苛立たしいほどとらえどころのない現実世界の能力と常識知識を提供する準備ができていると確信している。完全に 比喩的な黄金のスパイクが2つの努力を統合して推進されると、インテリジェントなマシンが生まれる。」[34]

しかし、この基本的な哲学でさえ論争の種になっていた。 たとえば、プリンストンのStevan Harnadは、1990年のシンボルグラウンディング仮説に関する論文を次のように締めくくっている。

「認知をモデル化するための「トップダウン」(シンボリック)アプローチは、その中間のどこかで「ボトムアップ」(感覚)アプローチに何らかの形で適合するという期待がしばしば表明されている。この論文の根拠となる考慮事項が有効である場合、この期待は 絶望的にモジュール化されており、センスからシンボルへの実行可能なルートは実際には1つだけである。ゼロからなのだ。コンピューターのソフトウェアレベルのような自由に動くシンボリックレベルは、このルートでは決して到達しない(またはその逆)。 そこに到達することは、シンボルを本来の意味から根絶することになるように見えるので、なぜそのようなレベルに到達しようとする必要があるのか(それによって、プログラム可能なコンピューターと機能的に同等になる)。」[35]

現代の汎用人工知能研究[編集]

「汎用人工知能」という用語は、早くも1997年にMarkGubrudによって使用されました。[36] 完全に自動化された軍事生産と作戦の意味についての議論で。 この用語は、2002年頃にShaneLeggとBenGoertzelによって再導入され、普及しました。[37] 研究目的ははるかに古く、たとえばDoug LenatのCycプロジェクト(1984年に開始)であり、AllenNewellのSoarプロジェクトはAGIの範囲内と見なされています。 2006年のAGIの研究活動は、PeiWangとBenGoertzelによって説明されました。[38] 「出版物と予備的な結果の作成」として。 AGIの最初のサマースクールは2009年に中国の厦門で開催されました[39] 厦門大学の人工脳研究所とOpenCogによる。 2010年に最初の大学のコースが与えられました[40] そして2011年[41] ブルガリアのプロブディフ大学でTodorArnaudovによって。 MITは、2018年にLex Fridmanが主催し、多数のゲスト講師をフィーチャーしたAGIのコースを発表しました。 ただし、まだほとんどのAI研究者は、AGIにほとんど注意を向けておらず、インテリジェンスが複雑すぎて短期的に完全に複製できないと主張する人もいます。 ただし、少数のコンピューター科学者がAGIの研究に積極的に取り組んでおり、このグループの多くは一連のAGI会議に貢献しています。 研究は非常に多様であり、多くの場合、本質的に先駆的です。 彼の本の紹介で、[42] ゲルツェル氏によると、真に柔軟なAGIが構築されるまでに必要な時間の見積もりは、10年から1世紀以上までさまざまですが、AGI研究コミュニティのコンセンサスは、レイ・カーツワイルがTheSingularityで議論したタイムラインが近いということです。[43] つまり2015 と 2045 の間 がもっともらしいです。[44]

しかし、主流のAI研究者は、進歩がこれほど急速になるかどうかについて幅広い意見を述べています。 そのような95の意見の2012年のメタアナリシスは、AGIの発症が現代的および歴史的予測の両方で16〜26年以内に発生すると予測する傾向を発見しました。 その後、データセットに一部の専門家が非専門家としてリストされていることがわかりました。その逆も同様です。[45]

AGIを明示的に追求している組織には、スイスのAIラボIDSIAが含まれます。,[46] Nnaisense,[47] Vicarious, Maluuba,[10] OpenCog財団 , Adaptive AI, LIDA, Numenta および関連する Redwood Neuroscience Institute.[48] さらに、Machine Intelligence Research Institute[49] のような組織や OpenAI[50] AGIの開発パスに影響を与えるために設立されました。 最後に、ヒューマンブレインプロジェクトなどのプロジェクト[51] 人間の脳の機能シミュレーションを構築するという目標を持っています。 AGIの2017年の調査では、AGIを明示的または暗黙的に(公開された調査を通じて)調査する45の既知の「アクティブなR&Dプロジェクト」に分類され、最大の3つはDeepMind、Human Brain Project、OpenAIです。[10]

2017年、Ben Goertzelは、AGIが到着したときに、民主的で分散型の制御を容易にすることを目的として、AIプラットフォームSingularityNETを設立しました。[52]

2017年、研究者のFeng Liu、Yong Shi、Ying Liuは、GoogleAIやAppleのSiriなどの公的に利用可能で自由にアクセスできる弱いAIの知能テストを実施しました。 これらのAIは最大で約47のIQ値に達しました。これは、1年生の約6歳の子供に相当します。 大人は平均して約100人になります。 同様のテストが2014年に実施され、IQスコアは最大値27に達しました。[53][54]

2019年、ビデオゲームプログラマーで航空宇宙エンジニアのジョン・カーマックは、AGIを研究する計画を発表しました。[55]

2020年、OpenAIはGPT-3を開発しました。これは、特定のトレーニングなしで多くの多様なタスクを実行できる言語モデルです。 VentureBeatの記事のGaryGrossmanによると、GPT-3はAGIの例ではないというコンセンサスがありますが、狭いAIシステムとして分類するには高度すぎると考える人もいます。[56]

脳をシミュレートするのに必要な演算能力[編集]

全脳エミュレーション[編集]

一般的なインテリジェントアクションを達成するための一般的に議論されているアプローチは、全脳エミュレーションです。 低レベルの脳モデルは、生物学的脳を詳細にスキャンしてマッピングし、その状態をコンピューターシステムまたは別の計算デバイスにコピーすることによって構築されます。 コンピューターは、元の脳と本質的に同じように、またはすべての実用的な目的で、区別なく動作するように、元のモデルに非常に忠実なシミュレーションモデルを実行します。.[57] 全脳エミュレーションは、医学研究目的の脳シミュレーションの文脈で、計算論的神経科学および神経情報学で議論されています。 それは人工知能の研究で議論されています[44] 強いAIへのアプローチとして。 必要な詳細な理解を提供できるニューロイメージング技術は急速に進歩しており、未来派のレイ・カーツワイルは「The Singularity Is Near」という本の中で[43] 十分な品質のマップが、必要な計算能力と同様のタイムスケールで利用可能になると予測しています。

初期の見積もり[編集]

Estimates of how much processing power is needed to emulate a human brain at various levels (from Ray Kurzweil, and Anders Sandberg and Nick Bostrom), along with the fastest supercomputer from TOP500 mapped by year. Note the logarithmic scale and exponential trendline, which assumes the computational capacity doubles every 1.1 years. Kurzweil believes that mind uploading will be possible at neural simulation, while the Sandberg, Bostrom report is less certain about where consciousness arises.[58]

低レベルの脳シミュレーションには、非常に強力なコンピューターが必要になります。 人間の脳には膨大な数のシナプスがあります。 10^11(1,000億)個のニューロンのそれぞれは、他のニューロンへの平均7,000個のシナプス接続(シナプス)を持っています。 3歳の子供の脳には、約10^15のシナプス(1兆)があると推定されています。 この数は年齢とともに減少し、成人期までに安定します。 推定値は成人によって異なり、10^14から5×10^14のシナプス(100から500兆)の範囲です。[59] ニューロン活動の単純なスイッチモデルに基づく脳の処理能力の推定値は、1秒あたり約10 ^ 14(100兆)のシナプス更新(SUPS)です。[60] 1997年、カーツワイルは人間の脳と同等になるために必要なハードウェアのさまざまな見積もりを検討し、1秒あたり10 ^ 16回の計算(cps)の数値を採用しました。[61] (比較のために、「計算」が1つの「浮動小数点演算」(現在のスーパーコンピューターの評価に使用される尺度)に相当する場合、10^16の「計算」は2011年に達成された10ペタフロップスに相当します)。 彼はこの図を使用して、執筆時点でのコンピューターの処理能力の指数関数的成長が続く場合、必要なハードウェアが2015年から2025年の間に利用可能になると予測しました。

ニューロンをより細部までモデリング[編集]

Kurzweilによって想定され、現在の多くの人工ニューラルネットワークの実装で使用されている人工ニューロンモデルは、生物学的ニューロンと比較して単純です。 脳のシミュレーションでは、生物学的ニューロンの詳細な細胞の振る舞いをキャプチャする必要がありますが、現在は最も広いアウトラインでのみ理解されています。 神経行動の生物学的、化学的、および物理的詳細の完全なモデリング(特に分子スケール)によってもたらされるオーバーヘッドは、カーツワイルの推定よりも数桁大きい計算能力を必要とします。 さらに、推定値は、少なくともニューロンと同じ数であり、ニューロンを10:1も上回る可能性があり、認知プロセスで役割を果たすことが知られているグリア細胞を考慮していません。[62]

現在の研究[編集]

従来のコンピューティングアーキテクチャに実装された、より洗練されたニューラルモデルを使用して脳シミュレーションを調査しているいくつかの研究プロジェクトがあります。 人工知能システムプロジェクトは、2005年に「脳」(1011ニューロン)の非リアルタイムシミュレーションを実装しました。27個のプロセッサのクラスターで1秒のモデルをシミュレートするのに50日かかりました。[63] Blue Brainプロジェクトは、世界最速のスーパーコンピューターアーキテクチャの1つであるIBMのBlue Geneプラットフォームを使用して、2006年に約10,000個のニューロンと108個のシナプスで構成される単一のラット新皮質カラムのリアルタイムシミュレーションを作成しました。[64] 長期的な目標は、人間の脳の生理学的プロセスの詳細で機能的なシミュレーションを構築することです。「人間の脳を構築することは不可能ではなく、10年で実現できます」とBlueBrainのディレクターであるHenryMarkram氏は述べています。 プロジェクトは2009年にオックスフォードで開催されたTEDカンファレンスで発表しました。[65] 猫の脳をシミュレートしたという物議を醸す主張もあります。 ニューロシリコンインターフェースは、より適切に拡張できる代替の実装戦略として提案されています。[66]

ハンス・モラベックは、1997年の論文「コンピューターのハードウェアが人間の脳と一致するのはいつか」で、上記の議論(「脳はより複雑」、「ニューロンはより詳細にモデル化する必要がある」)に取り組んだ。[67] 彼は、神経組織、特に網膜の機能をシミュレートする既存のソフトウェアの能力を測定しました。 彼の結果は、グリア細胞の数にも、どのような種類の処理ニューロンがどこで実行されるかに依存しません。

生物学的ニューロンのモデリングの実際の複雑さは、ニューラルネットワークに302ニューロンしかない(合計で約1000個のセルの中で)ワームの完全なシミュレーションを目的としたOpenWormプロジェクトで調査されました。 動物のニューラルネットワークは、プロジェクトの開始前に十分に文書化されています。 ただし、最初はタスクは単純に見えましたが、一般的なニューラルネットワークに基づくモデルは機能しませんでした。 現在、生物学的ニューロンの正確なエミュレーション(一部は分子レベル)に重点が置かれていますが、その結果はまだ完全な成功とは言えません。 人間の脳のスケールモデルで解決すべき問題の数がニューロンの数に比例していなくても、この経路に沿った仕事の量は明らかです。

シミュレーション・ベースのアプローチに対する批判[編集]

シミュレートされた脳のアプローチに対する基本的な批判は、人間の具体化が人間の知性の本質的な側面と見なされる具体化された認知に由来します。 多くの研究者は、意味を理解するために具体化が必要であると信じています。[68] この見方が正しければ、完全に機能する脳モデルは、ニューロン(つまりロボットの体)だけでなく、それ以上のものを包含する必要があります。 ゲルツェルは[44] (Second Lifeのように)仮想的な具体化を提案していますが、これで十分かどうかはまだわかっていません。

109 cps(Kurzweilの非標準単位「1秒あたりの計算」、上記を参照)を超えるマイクロプロセッサを使用するデスクトップコンピュータは、2005年から利用可能になっています。Kurzweil(およびMoravec)が使用した脳力の推定によると、このコンピュータは対応できるはずです。 蜂の脳のシミュレーションをサポートすることの[69] そのようなシミュレーションは存在しません [要出典]. これには少なくとも3つの理由があります。

  1. ニューロンモデルは単純化されすぎているようです(次のセクションを参照)。
  2. より高度な認知プロセスについての理解が不十分です[70] 機能的磁気共鳴画像法などの技術を使用して観察された脳の神経活動が何と相関しているかを正確に確立すること。
  3. 認知の理解が十分に進んだとしても、初期のシミュレーションプログラムは非常に非効率的である可能性が高く、したがって、かなり多くの演算能力が必要になります。
  4. 生物の脳は重要ですが、認知モデルの適切な境界ではない場合があります。 ミツバチの脳をシミュレートするには、体と環境をシミュレートする必要があるかもしれません。 拡張マインド論文は哲学的概念を形式化しており、頭足類の研究は分散型システムの明確な例を示しています。[71]

さらに、人間の脳の規模は現在十分に制約されていません。 ある推定では、人間の脳は約1,000億個のニューロンと100兆個のシナプスになっています。[72][73] 別の推定では、860億個のニューロンがあり、そのうち163億個が大脳皮質にあり、690億個が小脳にあります。[74]グリア細胞シナプスは現在定量化されていませんが、非常に多いことが知られています。ある推定ではニューロンの50倍存在すると言われています。

強いAIと意識[編集]

1980年、哲学者のジョン・サールは、中国語の部屋の議論の一環として「強いAI」という用語を作り出しました。[75] 彼は、人工知能に関する2つの異なる仮説を区別したかったのです。[76]

  • 人工知能システムは考え、心を持つことができます。 (「心」という言葉は、「心身問題」や「心の哲学」で使用されているように、哲学者にとって特定の意味を持っています。)
  • 人工知能システムは、それが考え、心を持っているように(のみ)行動することができます。

最初の仮説は「強いAI仮説」と呼ばれ、2番目の仮説は「弱いAI仮説」と呼ばれます。これは、最初の仮説がより強力なステートメントを示しているためです。これは、テストできるすべての能力を超える何か特別なことがマシンに発生したことを前提としています。 サールは「強いAI仮説」を「強いAI」と呼んだ。 この使用法は、学術的なAI研究や教科書でも一般的です。[77]

弱いAI仮説は、人工知能が可能であるという仮説と同等です。 RussellとNorvigによると、「ほとんどのAI研究者は、弱いAI仮説を当然のことと考えており、強いAI仮説を気にしません。」[78]

サールとは対照的に、レイ・カーツワイルは「強いAI」という用語を使用して、精神を持っているように機能する人工知能システムを説明します。[43] 哲学者が実際に精神を持っているかどうかを判断できるかどうかに関係なく。 サイエンスフィクションでは、AGIは、生物に見られる意識、感覚、知性、自己認識などの特性に関連付けられています。 しかし、サールによれば、一般的な知性が意識に十分であるかどうかは未解決の問題です。 「強力なAI」(上記でKurzweilによって定義されている)をSearleの「強いAI仮説」と混同しないでください。 強いAI仮説は、人と同じようにインテリジェントに動作するコンピューターには、必然的に精神と意識も必要であるという主張です。 AGIは、マインドの有無にかかわらず、マシンが表示するインテリジェンスの量のみを指します。

意識[編集]

サイエンスフィクションと人工知能の倫理で主要な役割を果たす強力なAIの概念に関連する知能以外にも、人間の精神には他の側面があります。

  • 意識:主観的な体験世界と感覚を持つこと。[79]
  • 自己認識:自分自身を一つの個人として認識すること、特に自分の考えを認識し把握すること。
  • 共感:他者の感情を推定する能力。
  • 自発的動機:自らの自由な意思を持つこと

この形式の強力なAIを備えたマシンには、人間以外の動物の権利と同様の権利がある可能性があるため、これらの特性には道徳的な側面があります。 そのため、完全な倫理的エージェントを既存の法的および社会的枠組みと統合するためのアプローチに関する予備作業が実施されました。 これらのアプローチは、「強力な」AIの法的立場と権利に焦点を当てています。[80]

しかし、ビル・ジョイは、とりわけ、これらの特性を備えた機械は、人間の生命または尊厳に対する脅威である可能性があると主張しています。[81] これらの特性のいずれかが強力なAIに必要かどうかはまだ明らかにされていません。 意識の役割は明確ではなく、現在、意識の存在について合意されたテストはありません。 意識の神経相関をシミュレートするデバイスでマシンが構築されている場合、それは自動的に自己認識を持ちますか? また、感覚などのこれらのプロパティの一部は、完全にインテリジェントなマシンから自然に出現する可能性があります。または、明らかにインテリジェントな方法で動作し始めると、これらのプロパティをマシンに帰するのが自然になる可能性もあります。 たとえば、知的な行動は、その逆ではなく、感覚のために十分かもしれません。

人工意識の研究[編集]

強力なAI / AGIにおける意識の役割については議論の余地がありますが、多くのAGI研究者は[82] 意識を実装する可能性を調査する研究は不可欠であると考えてください。 初期の努力でイゴールアレクサンダー[83] 意識的な機械を作るための原則はすでに存在しているが、言語を理解するためにそのような機械を訓練するには40年かかるだろうと主張した。

なぜAI研究の進みが遅いのかについての可能な説明[編集]

1956年にAI研究が開始されて以来、この分野の成長は時間の経過とともに鈍化し、人間レベルでインテリジェントなアクションを備えたマシンを作成するという目的を失速させてきました。 この遅延の考えられる説明は、コンピュータに十分な範囲のメモリまたは処理能力が不足していることです。[84] さらに、AI研究のプロセスに関連する複雑さのレベルも、AI研究の進行を制限する可能性があります。[84]

ほとんどのAI研究者は、将来的に強力なAIを実現できると信じていますが、HubertDreyfusやRogerPenroseのように、強力なAIを実現する可能性を否定する人もいます。[84] ジョン・マッカーシーは、人間レベルのAIが達成されると信じているさまざまなコンピューター科学者の一人でしたが、日付を正確に予測することはできません。[85]

概念上の制限は、AI研究が遅いもう1つの考えられる理由です。[84] AI研究者は、強力なAIを達成するためのより強力な基盤と貢献を提供するために、専門分野の概念フレームワークを変更する必要がある場合があります。 ウィリアム・クロクシンが2003年に書いたように、「フレームワークは、インテリジェンスが特定の社会的および文化的文脈に関連してのみ現れるというワイゼンバウムの観察から始まります」。[84]

さらに、AIの研究者は、数学など、人が行うのが難しい仕事を実行できるコンピューターを作成することができましたが、逆に、人間が簡単に実行できるタスクを実行できるコンピューターの開発に苦労しました。 ウォーキングなど(モラベックのパラドックス)。[84] デビッド・ゲランターが説明した問題は、思考と推論が同等であると考える人がいることです。[86] しかし、思考とそれらの思考の作成者が個別に分離されているかどうかという考えは、AI研究者に興味をそそられました。[86]

過去数十年にわたってAI研究で遭遇した問題は、AIの進歩をさらに妨げてきました。 AI研究者によって約束された失敗した予測と、人間の行動の完全な理解の欠如は、人間レベルのAIの主要な考えを弱めるのに役立ちました。[44] AI研究の進歩は改善と失望の両方をもたらしましたが、ほとんどの研究者は21世紀のAIの目標を潜在的に達成することについて楽観的な見方を確立しています。[44]

強力なAIの進歩に関する長い研究のために、他の考えられる理由が提案されています。 科学的問題の複雑さと、心理学および神経生理学を通じて人間の脳を完全に理解する必要性により、コンピューターハードウェアで人間の脳の機能をエミュレートする多くの研究者が制限されています。[87] 多くの研究者は、AIの将来の予測に関係する疑問を過小評価する傾向がありますが、それらの問題を真剣に受け止めなければ、人々は問題のある質問の解決策を見落とす可能性があります。[44]

Clocksinは、AI研究の進歩を妨げる可能性のある概念上の制限は、人々がコンピュータープログラムや機器の実装に間違った技術を使用している可能性があることだと述べています。[84] AI研究者が最初に人工知能の目標を目指し始めたとき、主な関心は人間の推論でした。[88] 研究者たちは、推論を通じて人間の知識の計算モデルを確立し、特定の認知タスクを備えたコンピューターを設計する方法を見つけることを望んでいました。[88]

研究で特定のコンテキストを扱うときに人々が再定義する傾向がある抽象化の実践は、研究者にほんのいくつかの概念への集中を提供します。[88] AI研究における抽象化の最も生産的な使用は、計画と問題解決から来ています。[88] 目的は計算の速度を上げることですが、抽象化の役割は、抽象化演算子の関与について疑問を投げかけています。[89]

AIの速度が遅い理由として考えられるのは、ヒューリスティックがコンピューターのパフォーマンスと人間のパフォーマンスの間の重大な違反を含むセクションであるという多くのAI研究者による認識に関連しています。[87] コンピューターにプログラムされている特定の機能は、コンピューターが人間の知性と一致することを可能にする要件の多くを説明できる場合があります。 これらの説明は、強力なAIの達成が遅れる根本的な原因であるとは限りませんが、多くの研究者によって広く同意されています。

機械を感情で作るべきかどうかを議論するAI研究者はたくさんいます。 AIの典型的なモデルには感情がなく、感情をマシンにプログラミングすることで自分の心を持てると言う研究者もいます。 感情は人間の経験を要約します。なぜなら、それは人間がそれらの経験を思い出すことができるからです。[86] デビッド・ゲランターは、「人間の感情のすべてのニュアンスをシミュレートできない限り、コンピューターは創造的ではありません」と書いています。[86] この感情への懸念はAI研究者に問題を引き起こしており、研究が将来に進むにつれて、それは強力なAIの概念につながります。[90]

論争と危険[編集]

実現可能性[編集]

Lua エラー package.lua 内、80 行目: module 'Module:Message box/configuration' not found 2020年8月の時点で、AGIは投機的なままです[7][91] そのようなシステムはまだ実証されていないので。 意見は、人工知能が到着するかどうか、いつ到着するかによって異なります。 極端な例として、AIのパイオニアであるハーバートA.サイモンは1965年に、「機械は20年以内に、人間ができるあらゆる仕事をすることができるようになる」と推測しました。 しかし、この予測は実現しませんでした。 マイクロソフトの共同創設者であるポール・アレンは、「予測不可能で根本的に予測不可能な突破口」と「科学的に深い認知の理解」が必要になるため、このようなインテリジェンスは21世紀にはありそうもないと信じていました。[92] ロボット工学者のアラン・ウィンフィールドは、ガーディアン紙に書いているが、現代のコンピューティングと人間レベルの人工知能の間のギャップは、現在の宇宙飛行と実際の超光速宇宙飛行の間のギャップと同じくらい広いと主張した。[93]

AGIのワックスと衰退の実現可能性に関するAI専門家の見解は、2010年代に復活した可能性があります。 2012年と2013年に実施された4つの世論調査では、AGIが到着する自信が50%になる時期についての専門家の推測の中央値は、世論調査に応じて2040〜2050であり、平均は2081でした。 同じ質問をしたときは「決して」ではありませんが、代わりに90%の自信を持っています。[94][95] さらに現在のAGIの進捗状況に関する考慮事項は、人間レベルのAGIを確認するためのテストおよびIQテストAGIの下にあります。

人間の絶滅可能性[編集]

AIは実存的リスクをもたらし、このリスクには現在よりもはるかに注意が必要であるという説は、多くの著名人によって支持されています。 おそらく最も有名なのは、イーロンマスク、ビルゲイツ、スティーブンホーキングです。 論文を支持する最も著名なAI研究者は、スチュアートJ.ラッセルです。 論文の支持者は懐疑論者に困惑を表明することがあります:ゲイツ氏は「なぜ一部の人々が心配していないのか理解していない」と述べています,[96] ホーキングは2014年の社説で、広範な無関心を批判しました。

「それで、計り知れない利益とリスクの可能な未来に直面して、専門家は確かに最良の結果を確実にするために可能なすべてをしているでしょう? 違う。 優れたエイリアン文明が私たちに「私たちは数十年で到着します」というメッセージを送った場合、私たちはただ答えます、「OK、あなたがここに着いたら私たちに電話してくださいテンプレート:Endash明かりをつけたままにしますか?」 おそらくそうではないテンプレート:Endashしかし、これは多かれ少なかれAIで起こっていることです。[97][97]

存在リスクを懸念している学者の多くは、難しい「制御問題」を解決するための(おそらく大規模な)研究を実施して、プログラマーが実装できるセーフガード、アルゴリズム、またはアーキテクチャの種類を質問に答えることが最善の方法であると考えています。 再帰的に改善するAIが、超知能に達した後も破壊的ではなく友好的に動作し続ける可能性を最大化するには?[98][99]

AIが実存的リスクをもたらす可能性があるという説にも、多くの強力な批判者がいます。 懐疑論者は、論文が暗号宗教的であり、全能の神への非合理的な信念を超知性が置き換える可能性についての不合理な信念を持っていると非難することがあります。 極端な場合、Jaron Lanierは、現在のマシンが何らかの形でインテリジェントであるという概念全体は、裕福な人々による「幻想」と「途方もない詐欺」であると主張しています。[100]

既存の批判の多くは、AGIが短期的にはありそうもないと主張しています。 コンピューター科学者のゴードン・ベルは、人類は技術的特異点に達する前にすでに自分自身を破壊していると主張しています。 ムーアの法則の最初の支持者であるゴードン・ムーアは、「私は懐疑的です。少なくとも長い間、[技術的特異点]が発生する可能性はないと思います。なぜそう感じるのかわかりません。 仕方。"[101] 元Baiduの副社長兼チーフサイエンティストのAndrewNgは、AIの存在リスクは、「まだ地球に足を踏み入れていないのに、火星の人口過多を心配するようなものだ」と述べています。[102]

AIを活用した機関は、AIが推進するビジネス機能(金融、AIにおける不正予測や信用リスク評価など)を実行する際に統合されたAI人間の知識、スキル、能力を活用する機能横断的な戦略を開発することで、人的資源に対するこれらの潜在的な脅威を克服できます。 -生産およびサプライチェーン管理における予測と問題解決、マーケティングにおける消費者の購買行動の自動予測、および戦略的意思決定を可能にしました。[103]

関連項目[編集]

  • Artificial brain
  • AI control problem
  • Automated machine learning
  • ブレイン・イニシアチブ
  • China Brain Project
  • Eliezer Yudkowsky
  • Future of Humanity Institute
  • General game playing
  • Human Brain Project
  • Blue Brain
  • Intelligence amplification (IA), the use of information technology in augmenting human intelligence instead of creating an external autonomous "AGI"
  • Machine ethics
  • Multi-task learning
  • Nick Bostrom
  • Outline of artificial intelligence
  • Outline of transhumanism
  • 超知能
  • Synthetic intelligence
  • Transfer learning

脚注[編集]

  1. Hodson, Hal (2019年3月1日). “DeepMind and Google: the battle to control artificial intelligence”. 1843. https://www.economist.com/1843/2019/03/01/deepmind-and-google-the-battle-to-control-artificial-intelligence 2020年7月7日閲覧. "AGI stands for Artificial General Intelligence, a hypothetical computer program..." 
  2. Kurzweil, Singularity (2005) p. 260
  3. 3.0 3.1 Kurzweil, Ray (5 August 2005), “Long Live AI”, Forbes, https://www.forbes.com/home/free_forbes/2005/0815/030.html : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  4. Treder, Mike (10 August 2005), “Advanced Human ntelligence”, Responsible Nanotechnology, https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html 
  5. The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013”. 2014年2月22日閲覧。
  6. Searle 1980, See below for the origin of the term "strong AI", and see the academic definition of "strong AI" in the article Chinese room.
  7. 7.0 7.1 europarl.europa.eu: How artificial intelligence works, "Concluding remarks: Today's AI is powerful and useful, but remains far from speculated AGI or ASI.", European Parliamentary Research Service, retrieved March 3, 2020
  8. Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018-07-31). “Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts”. Journal of Artificial Intelligence Research 62: 729–754. doi:10.1613/jair.1.11222. モジュール:Citation/CS1/styles.cssページに内容がありません。ISSN 1076-9757. 
  9. The Open University on Strong and Weak AI”. 2007年10月8日閲覧。
  10. 10.0 10.1 10.2 Baum, Seth (12 November 2017). Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (November 12, 2017). Global Catastrophic Risk Institute Working Paper 17-1. https://ssrn.com/abstract=3070741. 
  11. This list of intelligent traits is based on the topics covered by major AI textbooks, including: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 and Nilsson 1998.
  12. Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). モジュール:Citation/CS1/styles.cssページに内容がありません。ISBN 0-262-16239-3
  13. White, R. W. (1959). “Motivation reconsidered: The concept of competence”. Psychological Review 66 (5): 297–333. doi:10.1037/h0040934. モジュール:Citation/CS1/styles.cssページに内容がありません。PMID 13844397. 
  14. Johnson 1987
  15. deCharms, R. (1968). Personal causation. New York: Academic Press.
  16. Muehlhauser, Luke (2013年8月11日). “What is AGI?”. Machine Intelligence Research Institute. 2014年5月1日閲覧。
  17. What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence” (英語). Talky Blog (2019年7月13日). 2019年7月17日閲覧。
  18. Shapiro, Stuart C. (1992). Artificial Intelligence Archived 1 February 2016 at the Wayback Machine. In Stuart C. Shapiro (Ed.), Encyclopedia of Artificial Intelligence (Second Edition, pp. 54–57). New York: John Wiley. (Section 4 is on "AI-Complete Tasks".)
  19. Roman V. Yampolskiy. Turing Test as a Defining Feature of AI-Completeness. In Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM) --In the footsteps of Alan Turing. Xin-She Yang (Ed.). pp. 3–17. (Chapter 1). Springer, London. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf Archived 22 May 2013 at the Wayback Machine.
  20. Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Archived 4 March 2016 at the Wayback Machine.. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  21. Bergmair, Richard (7 January 2006). Natural Language Steganography and an "AI-complete" Security Primitive.  (unpublished?)
  22. Crevier 1993, pp. 48–50
  23. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  24. Scientist on the Set: An Interview with Marvin Minsky”. 2008年4月5日閲覧。
  25. Marvin Minsky to Darrach (1970), quoted in Crevier (1993, p. 109).
  26. The Lighthill report specifically criticized AI's "grandiose objectives" and led the dismantling of AI research in England. (Lighthill 1973; Howe 1994) In the U.S., DARPA became determined to fund only "mission-oriented direct research, rather than basic undirected research". See (NRC 1999) under "Shift to Applied Research Increases Investment". See also (Crevier 1993, pp. 115–117) and (Russell & Norvig 2003, pp. 21–22)
  27. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 and see also Feigenbaum & McCorduck 1983
  28. Crevier 1993, pp. 161–162,197–203,240; Russell & Norvig 2003, p. 25; NRC 1999, under "Shift to Applied Research Increases Investment"
  29. Crevier 1993, pp. 209–212
  30. As AI founder John McCarthy writes "it would be a great relief to the rest of the workers in AI if the inventors of new general formalisms would express their hopes in a more guarded form than has sometimes been the case." McCarthy, John (2000年). “Reply to Lighthill”. Stanford University. 2007年9月29日閲覧。
  31. "At its low point, some computer scientists and software engineers avoided the term artificial intelligence for fear of being viewed as wild-eyed dreamers."Markoff, John (2005年10月14日). “Behind Artificial Intelligence, a Squadron of Bright Real People”. The New York Times. https://www.nytimes.com/2005/10/14/technology/14artificial.html?ei=5070&en=11ab55edb7cead5e&ex=1185940800&adxnnl=1&adxnnlx=1185805173-o7WsfW7qaP0x5/NUs1cQCQ 
  32. Russell & Norvig 2003, pp. 25–26
  33. Trends in the Emerging Tech Hype Cycle”. Gartner Reports. 2019年5月7日閲覧。
  34. Moravec 1988, p. 20
  35. Harnad, S (1990). “The Symbol Grounding Problem”. Physica D 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode: 1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. 
  36. Gubrud 1997
  37. Who coined the term "AGI"? » goertzel.org” (英語). 2018年12月28日閲覧。, via Life 3.0: 'The term "AGI" was popularized by... Shane Legg, Mark Gubrud and Ben Goertzel'
  38. Goertzel & Wang 2006. See also Wang (2006) with an up-to-date summary and lots of links.
  39. https://goertzel.org/AGI_Summer_School_2009.htm
  40. http://fmi-plovdiv.org/index.jsp?id=1054&ln=1
  41. http://fmi.uni-plovdiv.bg/index.jsp?id=1139&ln=1
  42. Goertzel & Pennachin 2006.
  43. 43.0 43.1 43.2 (Kurzweil 2005, p. 260) or see Advanced Human Intelligence Archived 30 June 2011 at the Wayback Machine. where he defines strong AI as "machine intelligence with the full range of human intelligence."
  44. 44.0 44.1 44.2 44.3 44.4 44.5 Goertzel 2007.
  45. Error in Armstrong and Sotala 2012”. AI Impacts (2016年). 2020年8月24日閲覧。
  46. Intelligent machines that learn unaided”. Ticino Ricerca (2004年). 2020年8月24日閲覧。
  47. Markoff, John (2016年11月27日). “When A.I. Matures, It May Call Jürgen Schmidhuber 'Dad'”. The New York Times. https://www.nytimes.com/2016/11/27/technology/artificial-intelligence-pioneer-jurgen-schmidhuber-overlooked.html 2017年12月26日閲覧。 
  48. James Barrat (2013). “Chapter 11: A Hard Takeoff”. Our Final Invention: Artificial Intelligence and the End of the Human Era (First ed.). New York: St. Martin's Press. モジュール:Citation/CS1/styles.cssページに内容がありません。ISBN 9780312622374 
  49. About the Machine Intelligence Research Institute”. Machine Intelligence Research Institute. 2017年12月26日閲覧。
  50. “About OpenAI” (英語). OpenAI. https://openai.com/about/ 2017年12月26日閲覧。 
  51. Theil, Stefan. “Trouble in Mind” (英語). Scientific American: pp. 36–42. doi:10.1038/scientificamerican1015-36. https://www.scientificamerican.com/article/why-the-human-brain-project-went-wrong-and-how-to-fix-it/ 2017年12月26日閲覧。 
  52. Walch, Kathleen (2020年10月16日). “Artificial General Intelligence Platform”. Forbes. 2022年4月10日閲覧。 “"Dr. Goertzel is founder of SingularityNET, a decentralized AI platform which lets multiple AI agents cooperate to solve problems in a participatory way without any central controller. ... Dr. Goertzel created SingularityNET for one simple reason: “I intend to create AGI and when I roll out this AGI, I want it to be rolled out in a decentralized and democratically controlled way, rather than in a manner that allows it to be controlled by any one person or corporate or governmental entity.”"”
  53. Liu, Feng; Shi, Yong; Liu, Ying (2017). “Intelligence Quotient and Intelligence Grade of Artificial Intelligence”. Annals of Data Science 4 (2): 179–191. arXiv:1709.10242. Bibcode: 2017arXiv170910242L. doi:10.1007/s40745-017-0109-0. 
  54. Google-KI doppelt so schlau wie Siri”. 2019年1月2日閲覧。
  55. Lawler, Richard (2019年11月13日). “John Carmack takes a step back at Oculus to work on human-like AI”. Engadget. 2020年4月4日閲覧。
  56. Grossman, Gary (2020年9月3日). “We're entering the AI twilight zone between narrow and general AI”. VentureBeat. 2020年9月5日閲覧。 “"Certainly, too, there are those who claim we are already seeing an early example of an AGI system in the recently announced GPT-3 natural language processing (NLP) neural network. ... So is GPT-3 the first example of an AGI system? This is debatable, but the consensus is that it is not AGI. ... If nothing else, GPT-3 tells us there is a middle ground between narrow and general AI."”
  57. Sandberg & Boström 2008. "The basic idea is to take a particular brain, scan its structure in detail, and construct a software model of it that is so faithful to the original that, when run on appropriate hardware, it will behave in essentially the same way as the original brain."
  58. Sandberg & Boström 2008.
  59. Drachman 2005.
  60. Russell & Norvig 2003.
  61. In "Mind Children" Moravec 1988, p. 61 1015 cps is used. More recently, in 1997, <Archived copy”. 2006年6月23日閲覧。> Moravec argued for 108 MIPS which would roughly correspond to 1014 cps. Moravec talks in terms of MIPS, not "cps", which is a non-standard term Kurzweil introduced.
  62. Swaminathan, Nikhil (Jan–Feb 2011). “Glia—the other brain cells”. Discover. 8 February 2014時点におけるアーカイブ。. エラー: |archivedate=を指定した場合、|archiveurl=の指定が必要です。. http://discovermagazine.com/2011/jan-feb/62 2014年1月24日閲覧。. 
  63. Izhikevich, Eugene M.; Edelman, Gerald M. (4 March 2008). “Large-scale model of mammalian thalamocortical systems”. PNAS 105 (9): 3593–3598. Bibcode: 2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC: 2265160. モジュール:Citation/CS1/styles.cssページに内容がありません。PMID 18292226. 12 June 2009時点におけるアーカイブ。. エラー: |archivedate=を指定した場合、|archiveurl=の指定が必要です。. http://vesicle.nsi.edu/users/izhikevich/publications/large-scale_model_of_human_brain.pdf 2015年6月23日閲覧。. 
  64. Project Milestones”. Blue Brain. 2008年8月11日閲覧。
  65. “Artificial brain '10 years away' 2009 BBC news”. (2009年7月22日). http://news.bbc.co.uk/1/hi/technology/8164060.stm 2009年7月25日閲覧。 
  66. University of Calgary news Archived 18 August 2009 at the Wayback Machine., NBC News news Archived 4 July 2017 at the Wayback Machine.
  67. Archived copy”. 2006年6月23日閲覧。
  68. de Vega, Glenberg & Graesser 2008. A wide range of views in current research, all of which require grounding to some degree
  69. some links to bee brain studies”. 2010年3月30日閲覧。
  70. In Goertzels' AGI book (Yudkowsky 2006), Yudkowsky proposes 5 levels of organisation that must be understood – code/data, sensory modality, concept & category, thought, and deliberation (consciousness) – in order to use the available hardware
  71. Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (August 2005). “Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement”. J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. モジュール:Citation/CS1/styles.cssページに内容がありません。PMID 15829594. 
  72. Williams & Herrup 1988
  73. "nervous system, human." Encyclopædia Britannica. 9 January 2007
  74. Azevedo et al. 2009.
  75. Searle 1980
  76. As defined in a standard AI textbook: "The assertion that machines could possibly act intelligently (or, perhaps better, act as if they were intelligent) is called the 'weak AI' hypothesis by philosophers, and the assertion that machines that do so are actually thinking (as opposed to simulating thinking) is called the 'strong AI' hypothesis." (Russell & Norvig 2003)
  77. For example:
  78. Russell & Norvig 2003, p. 947.
  79. Note that consciousness is difficult to define. A popular definition, due to Thomas Nagel, is that it "feels like" something to be conscious. If we are not conscious, then it doesn't feel like anything. Nagel uses the example of a bat: we can sensibly ask "what does it feel like to be a bat?" However, we are unlikely to ask "what does it feel like to be a toaster?" Nagel concludes that a bat appears to be conscious (i.e. has consciousness) but a toaster does not. See (Nagel 1974)
  80. Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. モジュール:Citation/CS1/styles.cssページに内容がありません。ISSN 0031-8949. 
  81. Joy, Bill (April 2000). “Why the future doesn't need us”. Wired. 
  82. Yudkowsky 2006.
  83. Aleksander 1996.
  84. 84.0 84.1 84.2 84.3 84.4 84.5 84.6 Clocksin 2003.
  85. McCarthy 2003.
  86. 86.0 86.1 86.2 86.3 Gelernter 2010.
  87. 87.0 87.1 McCarthy 2007.
  88. 88.0 88.1 88.2 88.3 Holte & Choueiry 2003.
  89. Zucker 2003.
  90. Kaplan, Andreas; Haenlein, Michael (2019). “Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence”. Business Horizons 62: 15–25. doi:10.1016/j.bushor.2018.08.004. 
  91. itu.int: Beyond Mad?: The Race For Artificial General Intelligence, "AGI represents a level of power that remains firmly in the realm of speculative fiction as on date." February 2, 2018, retrieved March 3, 2020
  92. Allen, Paul. “The Singularity Isn't Near”. MIT Technology Review. http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/ 2014年9月17日閲覧。 
  93. Winfield, Alan. “Artificial intelligence will not turn into a Frankenstein's monster”. The Guardian. https://www.theguardian.com/technology/2014/aug/10/artificial-intelligence-will-not-become-a-frankensteins-monster-ian-winfield 2014年9月17日閲覧。 
  94. Raffi Khatchadourian (2015年11月23日). “The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?”. The New Yorker. http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom 2016年2月7日閲覧。 
  95. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555–572). Springer, Cham.
  96. Rawlinson, Kevin. “Microsoft's Bill Gates insists AI is a threat”. BBC News. https://www.bbc.co.uk/news/31047780 2015年1月30日閲覧。 
  97. “Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'”. The Independent (UK). https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html 2014年12月3日閲覧。 
  98. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). モジュール:Citation/CS1/styles.cssページに内容がありません。ISBN 978-0199678112 
  99. Kaj Sotala; Roman Yampolskiy (19 December 2014). “Responses to catastrophic AGI risk: a survey”. Physica Scripta 90 (1). 
  100. “But What Would the End of Humanity Mean for Me?”. The Atlantic. (9 May 2014). https://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/ 2015年12月12日閲覧。. 
  101. “Tech Luminaries Address Singularity” (英語). IEEE Spectrum: Technology, Engineering, and Science News (SPECIAL REPORT: THE SINGULARITY). (2008年6月1日). https://spectrum.ieee.org/computing/hardware/tech-luminaries-address-singularity 2020年4月8日閲覧。 
  102. Shermer, Michael (2017年3月1日). “Apocalypse AI” (英語). Scientific American: pp. 77. doi:10.1038/scientificamerican0317-77. https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-mdash-yet/ 2017年11月27日閲覧。 
  103. Younis, R.A.A.; Adel, H.M. (2020). Artificial Intelligence Strategy, Creativity-oriented HRM and Knowledge- sharing Quality: Empirical Analysis of Individual and Organisational Performance of AI-powered Businesses. London, United Kingdom: Proceedings of the Annual International Conference of The British Academy of Management (BAM) 2020: Innovating for a Sustainable Future. モジュール:Citation/CS1/styles.cssページに内容がありません。ISBN 978-0-9956413-3-4. https://app.oxfordabstracts.com/events/1520/secure/program-app/submission/206970 

参考文献[編集]

外部リンク[編集]

テンプレート:Existential risk from artificial intelligence

テンプレート:新技術

fr:Intelligence artificielle#Intelligence artificielle forte


This article "汎用人工知能" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:汎用人工知能.