AI News, Foglio1 artificial intelligence

人工知能

『日本大百科全書(ニッポニカ)』の解説で、情報工学者・通信工学者の佐藤理史は次のように述べている[1]。 人間の知的能力をコンピュータ上で実現する、様々な技術・ソフトウェア・コンピューターシステム[4]。応用例は自然言語処理(機械翻訳・かな漢字変換・構文解析等)[5]、専門家の推論・判断を模倣するエキスパートシステム、画像データを解析して特定のパターンを検出・抽出したりする画像認識等がある[4]。 1956年にダートマス会議でジョン・マッカーシーにより命名された。現在では、記号処理を用いた知能の記述を主体とする情報処理や研究でのアプローチという意味あいでも使われている。家庭用電気機械器具の制御システムやゲームソフトの思考ルーチンもこう呼ばれることもある。 プログラミング言語 LISP による「ELIZA」というカウンセラーを模倣したプログラムがしばしば引き合いに出されるが(人工無脳)、計算機に人間の専門家の役割をさせようという「エキスパートシステム」と呼ばれる研究・情報処理システムの実現は、人間が暗黙に持つ常識の記述が問題となり、実用への利用が困難視されている。

人工的な知能の実現へのアプローチとしては、「ファジィ理論」や「ニューラルネットワーク」などのようなアプローチも知られているが、従来の人工知能であるGOFAIとの差は記述の記号的明示性にある。その後「サポートベクターマシン」が注目を集めた。また、自らの経験を元に学習を行う強化学習という手法もある。 「この宇宙において、知性とは最も強力な形質である」(レイ・カーツワイル)という言葉通り、知性を機械的に表現し実装するということは極めて重要な作業である。 2006年のディープラーニング(深層学習)の登場と2010年代以降のビッグデータの登場により、一過性の流行を超えて社会に浸透して行った。 2016年から2017年にかけて、ディープラーニングを導入したAIが囲碁などのトップ棋士、さらにポーカーの世界トップクラスのプレイヤーも破り[6][7]、時代の最先端技術となった。 第2次人工知能ブームでの人工知能は機械学習と呼ばれ、以下のようなものがある。 一方、計算知能(CI)は開発や学習を繰り返すことを基本としている(例えば、パラメータ調整、コネクショニズムのシステム)。学習は経験に基づく手法であり、非記号的AI、美しくないAI[注 1]、ソフトコンピューティングと関係している。その手法としては、以下のものがある。

1956年に行われた、ダートマス会議開催の提案書において、人類史上、用語として初めて使用され、新たな分野として創立された。 1960年代と1970年代の間に、ジョエル・モーゼスは Macsyma(マクシマ)プログラム[注 4]中で積分問題での記号的推論のパワーを示した。マービン・ミンスキーとシーモア・パパートは『パーセプトロン』を出版して単純なニューラルネットの限界を示し、アラン・カルメラウアーはプログラミング言語 Prolog を開発した。テッド・ショートリッフェは医学的診断と療法におけるルールベースシステムを構築し、知識表現と推論のパワーを示した。これは、最初のエキスパートシステムと呼ばれることもある。ハンス・モラベックは、散らかされた障害コースを自律的に協議して走行する最初のコンピューター制御の乗り物を開発した。

1980年代に、ニューラルネットワークはバックプロパゲーションアルゴリズムによって広く使われるようになった。 また、この時代にロドニー・ブルックスが、知能には身体が必須との学説(身体性)を提唱した。 1990年代はAIの多くの分野で様々なアプリケーションが成果を上げた。特に、ボードゲームでは目覚ましく、1992年にIBMは世界チャンピオンに匹敵するバックギャモン専用コンピュータ・TDギャモンを開発し、IBMのチェス専用コンピュータ・ディープ・ブルーは、1997年5月にガルリ・カスパロフを打ち負かし、同年8月にはオセロで日本電気のオセロ専用コンピュータ・ロジステロに世界チャンピオンの村上健が敗れた[9]。国防高等研究計画局は、最初の湾岸戦争においてユニットをスケジューリングするのにAIを使い、これによって省かれたコストが1950年代以来のAI研究への政府の投資全額を上回ったことを明らかにした。日本では甘利俊一(日本学士院会員)らが精力的に啓蒙し、優秀な成果も発生したが、論理のブラックボックス性が指摘された。 1998年には非構造化データ形式の国際規格であるXMLが提唱されたが、ここからWeb上の非構造化データに対して、アプリケーション別に適した意味付けを適用し、処理を行わせる試みが開始された。同年に、W3Cのティム・バーナーズ=リーにより、Webに知的処理を行わせるセマンティック・ウェブが提唱された。この技術はWeb上のデータに意味を付加して、コンピュータに知的処理を行わせる方法を国際的に規格化するものである。この規格には知識工学におけるオントロジーを表現するデータ形式のOWLも含まれていることから、かつて流行したエキスパートシステムの亜種であることが分かる。2000年代前半に規格化が完了しているが、Web開発者にとっては開発工数に見合うだけのメリットが見出せなかったことから、現在も普及はしていない。 日本においてはエキスパートシステムの流行の後にニューロファジィが流行した。しかし、研究が進むにつれて計算リソースやデータ量の不足,シンボルグラウンディング問題,フレーム問題に直面し、産業の在り方を激変させるようなAIに至ることは無く、ブームは終焉した。 1980年代に入って、大企業の研究所を中心に、知識工学に基づくエキスパートシステムが多数提案されるようになり、エキスパートシステムを専門とするAIベンチャーも次々と立ち上がった。その流行から生まれた究極のプロジェクトとして第五世代コンピュータが挙げられる。 1982年から1992年まで日本は国家プロジェクトとして570億円を費やして第五世代コンピュータの研究を進めるも、採用した知識工学的手法では膨大なルールの手入力が必要で、専門家間で専門知識の解釈が異なる場合には統一したルール化が行えない等の問題もあり、実用的なエキスパートシステムの実現には至らなかった。実現した成果物はPrologの命令を直接CPUのハードウェアの機構で解釈して高速に実行する、並列型のProlog専用機であるが、商業的な意味で応用先が全く見つからなかった。 1980年代後半から1990年代中頃にかけて、従来から電子制御の手法として用いられてきたON/OFF制御,PID制御,現代制御の問題を克服するため、知的制御が盛んに研究され、知識工学的なルールを用いるファジィ制御,データの特徴を学習して分類するニューラルネットワーク,その2つを融合したニューロファジィという手法が日本を中心にブームを迎えた。バブル期の高級路線に合わせて、白物家電製品でもセンサの個数と種類を大幅に増やし、多様なデータを元に運転を最適化するモデルが多数発売され始めた。 ファジィについては、2018年までに日本が世界の1/5の特許を取得している事から、日本で特に大きなブームとなっていたことが分かっている[11]。現在の白物家電ではこの当時より更に発展した制御技術が用いられているが、既に当たり前のものになり、利用者には意識されなくなっている。ニューロファジィがブームになった1990年代には未だビッグデータという概念は無く(ブロードバンド接続普及後の2010年に初めて提唱された)、データマイニングとしての産業応用は行われなかった。しかし、ニューラルネットワークが一般人も巻き込んで流行した事例としては初めての事例であり、2010年代のディープラーニングブームの前史とも言える社会現象と言える。 松下電器が1985年頃から人間が持つような曖昧さを制御に活かすファジィ制御についての研究を開始し、1990年2月1日にファジィ洗濯機第1号である「愛妻号Dayファジィ」の発売に漕ぎ着けた。「愛妻号Dayファジィ」は従来よりも多数のセンサーで収集したデータに基づいて、柔軟に運転を最適化する洗濯機で、同種の洗濯機としては世界初であった。ファジィ制御という当時最先端の技術の導入がバブル期の高級路線にもマッチしたことから、ファジィは裏方の制御技術であるにも関わらず世間の大きな注目を集めた[11]。その流行の度合いは、1990年の新語・流行語大賞における新語部門の金賞で「ファジィ」が選ばれる程であった。その後に、松下電器はファジィルールの煩雑なチューニングを自動化したニューロファジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた[12][13][14][15][16][17]。 ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった[10]。しかし、開発者らの努力にも関わらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合と深層学習が不可能なニューラルネットワークの組み合わせであり、計算リソースやデータが潤沢に与えられたとしても、認識精度の向上には限界があった。 以降、計算機の能力限界から理論の改善は遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った[18]。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した[19]。 2005年、レイ・カーツワイルは著作で、「圧倒的な人工知能が知識・知能の点で人間を超越し、科学技術の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表した。 2006年に、ジェフリー・ヒントンらの研究チームによりオートエンコーダによるニューラルネットワークの深層化手法が提案された(現在のディープラーニングの直接的な起源)。 2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、AI関連の研究が再び大きく前進し始めた。 2010年に英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムのワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった[20]。2012年に画像処理コンテストでジェフリー・ヒントン氏のチームが従来手法からの大幅な精度改善を果たした上で優勝したことで、第三次AIブームが始まった。 2013年には国立情報学研究所[注 5]や富士通研究所の研究チームが開発した「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった[21]。

において決定不能な命題の存在」であり、一般的な意味での「不完全性」についての定理ではない[115]。 科学と哲学 『科学を語るとはどういうことか』によると、学問の扱う問題が整理され分化したことで、科学と哲学もそれぞれ異なる問題を研究するようになった[116]。これは「研究分野の細分化そのもの」であり、「立派な進歩」だと宇宙物理学者の須藤は言う[116]。一方で、科学哲学者・倫理学者の伊勢田哲治は、様々な要素を含んだ「大きな」問題を哲学的・統一的に扱う、かつての天文学について言及した[116]。「その後の天文学ではその〔哲学的〕問題を扱わなくなりましたし、今の物理学でもそういう問題を扱わない」と述べた伊勢田に対し、須藤は「その通りですが、それ自体に何か問題があるのでしょうか」と返している[116]。須藤は次のようにも述べた[102]。 須藤は、哲学的に論じられている「原因」という言葉を取り上げて、「原因という言葉を具体的に定義しない限りそれ以上の議論は不可能です」[118]と述べており、「哲学者が興味を持っている因果の定義が物理学者とは違うことは確かでしょう」としている[119]。伊勢田は、「思った以上に物理学者と哲学者のものの見え方の違いというのは大きいのかもしれません」と述べている[120]。 対談で須藤は「これまでけっこう長時間議論を行ってきました。おかげで、意見の違いは明らかになったとは思いますが、果たして何か決着がつくのでしょうか?」と発言し、伊勢田は「決着はつかないでしょうね」と答えている[121]。 事例 強いAI[注 6]とは、AIが人間の意識に相当するものを持ちうるとする考え方である。強いAIと弱いAI(逆の立場)の論争は、まだAI哲学者の間でホットな話題である。これは精神哲学と心身問題の哲学を巻き込む[要出典]。著名な事例としては、ロジャー・ペンローズの著書『皇帝の新しい心』と、ネド・ブロックらの「中国脳」やジョン・サールの「中国語の部屋」といった思考実験は、真の意識が形式論理システムによって実現できないと主張する。一方、ダグラス・ホフスタッターの著書『ゲーデル、エッシャー、バッハ』やダニエル・デネットの著書『解明される意識』では、機能主義に好意的な主張を展開している。多くの強力なAI支持者は、人工意識はAIの長期の努力目標と考えている。[要出典]

学術書・辞事典 報道 活用事例 研究課題 関連分野 その他の関連項目 応用 人工知能の未来と関わる項目

شبكة عصبونية اصطناعية

الشبكات العصبونية الاصطناعية (بالإنجليزية: Artificial Neural Network ANN) أو ما يدعى أيضا بالشبكات العصبونية المحاكية simulated neural network أو SNN : مجموعة مترابطة من عصبونات افتراضية تنشئها برامج حاسوبية لتشابه عمل العصبون البيولوجي أو بنى إلكترونية (شيبات إلكترونية مصممة لمحاكاة عمل العصبونات) تستخدم النموذج الرياضي لمعالجة المعلومات بناء على الطريقة الاتصالية في الحوسبة.[1][2][3]

يكمن أحد أسباب تفوق الدماغ البشري في قدرته على معالجة المعطيات في شكل هيكلي بمعني ان كل جزء من المخ له وظيفه ويشرف علي عمله جزء اخر يدير عمله ويستطيع ان يغير عمل الاجزاء ويسمي ذلك Plasticity كما أن كل جزء من المخ يعمل بصفه منفصله عن الاخر كما لو كان جهاز كمبيوتر به عدد كبير جدا من المعالجات(Processors)، أجهزة الحاسوب اليوم تقوم بمحاكاة هذه العملية في ما يسمى حوسبة متوازية، Parallel Computing، وبالرغم من السرعة العالية الناتجة عن هذه التقنية إلا أنها تفتقر إلى القدرة على الاستقلال بحل المشكلة، وذلك لان الحاسب الإلكتروني يقوم بارسال بيانات كثيرة جدا في صورة رقمية بينه كل من اجزائه اما المخ فيقوم بعمل ذلك في صورة رقميه في بعض الأماكن وفي أماكن اخري في صورة انالوج كما أن الكمبيوتر يرسل عدد كبير من البيانات المتكرره ولكن المخ لايرسل بيانات متكرره ومثال علي ذلك الكاميرا فهي ترسل حالة كل نقطه تصورها واذا لم تتغير الحالة ترسلها كما هي أيضا اما العقل فيرسل التغيير فقط وذلك علي شكل Spikes أو إشارات عصبية.

حينما فكروا في البداية وجدوا ان الخلايا العصبية تقوم بعملية جمع لإشارات بمعني انه يوجد وصلتين لخلية عصبية مثلا وكل وصلة عليها إشارة تكون النتيجة هي محصلة الإشارات بالجمع العادي ومن ثم وجدوا ان كل عصبون يستطيع ان يقوم بعمل تكبير أو تصغير فتم إضافة عامل اسمه (Weighting Factor) بمعني انه إذا كان هناك خلية مثلا ولها مدخلان فيتم ضرب الإشارة الأولي في المعامل الخاص بالعصبون هذا وكذا للمدخل الثاني ومن ثم يتم جمعهم وعلي ذلك تم بناء النظام الهندسي للخلايا الصناعية مع الاخذ في الاعتبار انه ليس صحيح 100% بالنسبة للخلايا العصبية البيولوجية كما سيوضح لاحقا.

يوجد شيء اسمه Dendrite أو العصبون وهذا في النموذج الهندسي عبارة عن سلكة ليس لها تاثير علي الإشارة الداخله للخلية اما في الحقيقة فان ذلك الجزء تعتبر مجموعة من الدوائر الإلكترونية القادرة علي أحداث الإشارة ذاتيا وهي تعامل معاملة المكثفات والملفات Active Component كما أنه وجد ان هذة العصبونات لها تأثير علي بعض فمثلا إذا تواجدت العصبونات بجانب بعض فتجمع الإشارة بجمع غير خطي nonlinear اما إذا كان العصبونات بعيدة عن بعض فتجمع جمع خطي عادي.

وتقوم بعملية التغيير هذة بطريقتين اما طريقة اسمها Long Term Plasticity وهذا معناه تغيير معاملات العصبونات وذلك أيضا معناه تغيير وظيفة الخلايا الصناعية وهذا معروف فمثلا خلايا النظر في الكفيف تغير وظيفتها بعد زمن معين من عدم العمل الي وظيفة خلايا سمعية وذلك يتم عن طريق تغيير المعاملات والطريقة الاخري هي Short Term Plasticity وهذا معناه ان الخلايا العصبية قادرة علي تغيير حجم الإشارة الخارجه منها حسب الوقت والظروف بمعني انه في بعض الأحيان يكون الخارج منها مكبر بصورة كبيرة وبعض الأحيان الاخري يكون الخارج مصغر ولا زال الأسباب غير معروفه حتي الآن.

لكن على العموم، ورغم أن الفكرة أساسا مستوحاة من آلية عمل العصبونات الدماغية فلا يجب أن نخلط كثيرا أو نشابه بين الدماغ والشبكات العصبونية فالشبكات العصبونية أصغر وأبسط من العصبونات البيولوجية وقد تكون مجرد وحدات افتراضية تنشأها برامج الحاسب، كما إن آلية عمل العصبونات الاصطناعية تقتبس بعض ميزات العصبون البيولوجي ولا تشابهه تماما، بالمقابل أضيفت العديد من الميزات وتقنيات المعالجة إلى العصبونات الاصطناعية بناء على أفكار رياضية أو هندسية، وهذه الإضافات أو أساليب العمل الجديدة (بعضها مقتبس من الإحصاء أو من نظرية المعلومات) لا ترتبط بالعصبونات البيولوجية أبدا.

عادة ما تكون العصبونات البيولوجية تابعة لقاعدة قيمة العتبة 'threshold value' فإذا كان المجموع الموزون weighted Sum لقيم الدخل أكبر من قيمة معينة تدعى العتبة threshold، يضطرم العصبون أو لنقل انه يتفعّل مرسلا إشارة كهربائية تدعى كمون الفعل على طول المحور العصبي axon ومن ثم تصل هذه الإشارة عن طريق تفرعات المحور إلى كل المشابك الخارجة outgoing synapses التي تتصل بعصبونات أخرى في الدماغ

Scientists Figured Out How to Make Neural Networks 90 Percent Smaller—but Just as Smart

A pair of MIT researchers discovered a way to construct an artificial intelligence that’s only about a tenth the size, without losing any computational ability.

When people talk about artificial intelligence, they’re mostly referring to a class of computer programs called artificial neural networks.

Each individual neuron can only perform a handful of basic calculations, but with enough of them all connected together, the computational power of the network is essentially limitless.

We prune old or disused connections all the time, but most artificial neural networks are only pruned once, right at the end of training.

They found that this method produced neural networks that were just as good as networks trained using the standard method, but these pruned networks were around 90 percent smaller and much more efficient.