- -pv
スレッドの閲覧状況:
現在、- がスレを見ています。
これまでに合計 - 表示されました。
※PC・スマホの表示回数をカウントしてます。
※24時間表示がないスレのPVはリセットされます。

だれかニューラルネットのロボットについて語ろうぜ

1名無しさん@おーぷん:2015/09/26(土)19:55:23 ID:dNM()
最近はどうなの?
2名無しさん@おーぷん :2015/09/26(土)19:56:23 ID:wV6
どうなんでしょう
3名無しさん@おーぷん :2015/09/26(土)20:02:01 ID:8wm
そうなんでしょう
4名無しさん@おーぷん :2015/09/26(土)20:24:16 ID:wV6
googleのDQNが画像からの判断だけでこの性能だからなぁ
http://youtu.be/rQwJh0Q4hIU
5名無しさん@おーぷん :2015/09/28(月)00:06:17 ID:HMp
人間を滅ぼす判断も近い
6名無しさん@おーぷん :2015/09/28(月)21:47:23 ID:HMp
結局ディープネットがなんで良性能出すかに結論は出たのか
7名無しさん@おーぷん :2015/09/29(火)18:18:00 ID:Y0a
事前の教師なし調教によってトレーニングデータの入力にのみ反応するようにするとかなんとか
8名無しさん@おーぷん :2015/09/30(水)14:44:54 ID:FKW
http://youtu.be/_wXHR-lad-Q
http://youtu.be/mDi-9R61V4Y
9名無しさん@おーぷん :2015/10/01(木)04:10:49 ID:MiO
ニューラルネットはもう一段新しい工夫入ったらもう化け物急になるだろうな
とりあえず最適化の速度が速まればブレークスルーを起こしそう
10名無しさん@おーぷん :2015/10/01(木)04:32:07 ID:uek
結局はオートエンコーダーのおかげってことでいいの?
https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.172.1873&rep=rep1&type=pdf
11名無しさん@おーぷん :2015/10/01(木)04:34:29 ID:AG8
ニューラルネットちゃんとおいきれねぇな
論文数大杉
https://courses.cs.ut.ee/MTAT.03.291/2014_spring/uploads/Main/Replicating%20DeepMind.pdf
https://www.cs.toronto.edu/~vmnih/docs/dqn.pdf
12名無しさん@おーぷん :2015/10/01(木)04:54:32 ID:PDx
誰か解説のスライドとか作ってくれ
13名無しさん@おーぷん :2015/10/01(木)17:56:02 ID:lLr
オートエンコーダってなんぞや
14名無しさん@おーぷん :2015/10/01(木)18:43:55 ID:OkT
>>7
それって汎化性能は殺すってこと?
過学習と変わらなくね
15名無しさん@おーぷん :2015/10/01(木)19:58:40 ID:OkT
>>7
事前の教師なし調教によって入力の特徴を抽出して、その周りで学習をするから過学習しづらい
16名無しさん@おーぷん :2015/10/01(木)19:59:03 ID:OkT
らしい調べたら
17名無しさん@おーぷん :2015/10/01(木)20:22:58 ID:ohX
>>15
いめーじわかねー
結局はバックプロパゲーションが逆方向伝搬だからなのかなぁ
18名無しさん@おーぷん :2015/10/02(金)00:59:38 ID:IQZ
>>17
そうはじめにチューンしとくとそれに合わせて最適化を順番に行う
だから過学習しなくても良い構成になる
19名無しさん@おーぷん :2015/10/02(金)01:07:37 ID:rg7
電気羊の夢を見るロボット
20名無しさん@おーぷん :2015/10/02(金)01:27:50 ID:m3C
>>13
次元圧縮のためのニューラっるネットの構造?だったはず
データの特徴料を抽出できるとしてすごい話題になりすぎてやばい
21名無しさん@おーぷん :2015/10/03(土)22:16:13 ID:IBf
弾数とかの層あたりのノード数とかどうすればいいの?
なんか研究結果出た?
22名無しさん@おーぷん :2015/10/04(日)12:10:53 ID:l57
結局動向わからんな
ニュースはよくきくが
23名無しさん@おーぷん :2015/10/04(日)16:31:41 ID:xvZ
こういうスレがあっても誰もまともに知らないという悲劇
24名無しさん@おーぷん :2015/10/04(日)16:35:18 ID:dsL
>>23
論文出てんだろ 読め
25名無しさん@おーぷん :2015/10/04(日)19:10:00 ID:w3O
日本語の資料くれ
26名無しさん@おーぷん :2015/10/05(月)21:13:58 ID:en4
パラメータの調節法方法が不明
ムズすぎワロタ
27名無しさん@おーぷん :2015/10/06(火)22:48:44 ID:MCI
とりあえず問題を公表しさえすればアドバイスとかもできそうではあるが
28名無しさん@おーぷん :2015/10/11(日)01:43:28 ID:WsL
githubスレができたんだからそっちで誰かプログラム作れや
29名無しさん@おーぷん :2015/10/14(水)21:29:16 ID:qll
うーん過疎板
30名無しさん@おーぷん :2016/09/14(水)07:18:35 ID:uVu
googleさん論文でないな
31忍法帖【Lv=5,トロル,vG7】 :2017/12/02(土)09:01:42 ID:41s
人工知能
・エキスパートシステム:推論機能を適用することで結論を得る。
・事例ベース推論(CBR):その事例に類似した過去の事例をベースにし
・ベイジアン・ネットワーク
・ふるまいに基づくAI:AIシステムを一から構築していく手法
 ニューラルネットワーク:非常に強力なパターン認識力を持つシステム。コネクショニズムとほぼ同義。
 ファジィ制御:不確かな状況での推論手法
 進化的計算:生物学からインスパイアされた手法

2006年に2度目の冬の時代を終わらせたディープラーニングの発明と、
2010年以降のビッグデータ収集環境の整備により、技術的特異点という概念は
急速に世界中の識者の注目を集め、現実味を持って受け止められるようになった。
ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、
デミス・ハサビス率いるGoogle DeepMindを筆頭に、Vicarious, IBM Cortical Learning Center,
全脳アーキテクチャ, PEZY Computing, OpenCog, GoodAI, nnaisense, IBM SyNAPSE等、

汎用人工知能(AGI)を開発するプロジェクトが数多く立ち上げられている。
これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と
機械学習を組み合わせるアプローチが有望とされている[18]。
結果として、Hierarchical Temporal Memory (HTM) 理論, Complementary Learning Systems (CLS) 理論の更新版等、
ディープラーニングを超える汎用性を持つ理論が提唱され始めている。
32忍法帖【Lv=5,トロル,vG7】 :2017/12/02(土)09:12:09 ID:41s
Palm Pilot開発者ジェフ・ホーキンスが設立したNumenta 社取り組んでいる、
大脳新皮質のマスターアルゴリズムHierarchical Temporal Memory (HTM)理論

HIERARCHICAL TEMPORAL MEMORY和訳 (VERSION 0.2, DECEMBER 10, 2010) 80ページ
https://numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf

時間のモデリング重視で隠れマルコフモデル、ダイナミックベイジアンモデルと関連するらしい。

参考情報
(1)On Intelligence (邦題:考える脳・考えるコンピュータ ジェフ・ホーキンス)
http://www.amazon.co.jp/dp/4270000600

(2)HIERARCHICAL TEMPORAL MEMORY(VERSION 0.2.1, SEPTEMBER 12, 2011)68ページ
http://numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-en.pdf
33忍法帖【Lv=5,トロル,vG7】 :2017/12/02(土)09:15:31 ID:41s
本稿では、McClelland、McNaughton、and O'Reilly(1995)が最初に述べた補完的学習システム(CLS)の枠組みの背後にある
中心的なアイディアの運命を概観する。 このフレームワークは、なぜ脳が2つの差別的に特化した学習および記憶システムを
必要とするのかを説明し、それらの中心的特性(すなわち、海馬を短期間のエピソード記憶のための疎なパターン分離システム
および新皮質を分散重複システム潜在的な意味構造を抽出するためにエピソード全体に徐々に統合するため)。 我々は、海馬
の記憶エンコーディングおよびリコールの基本的な神経プロセス、結び付きエンコーディング、ヒト認識記憶、皮質における
初期海馬学習の統合、エンコード対ダイナミックモジュレーションの重要なトピックの範囲について、CLSフレームワークの
適用を検討する。リコール、および海馬と新皮質との間の相乗的相互作用。 全体として、CLSの枠組みは、過去15年間の実績
データが主な原則を確認しながら、現場で不可欠な理論的な力のままです。
34加津庸介 :2018/02/20(火)12:25:14 ID:Gda
5ちゃんの未来技術板行けば?
こんな過疎板じゃまともな議論なんてできやしないでしょ。

新着レスの表示 | ここまで読んだ

名前: mail:





だれかニューラルネットのロボットについて語ろうぜ
CRITEO