蔵書情報
この資料の蔵書に関する統計情報です。現在の所蔵数 在庫数 予約数などを確認できます。
資料の状態
各蔵書資料に関する詳細情報です。
No. |
資料番号 |
資料種別 |
請求記号 |
配架場所 |
状態 |
貸出
|
1 |
0015950165 | 図書一般 | 007.13/オカ22/ | 2F自然 | 貸出可 |
○ |
この資料に対する操作
カートに入れる を押すと この資料を 予約する候補として予約カートに追加します。
いますぐ予約する を押すと 認証後この資料をすぐに予約します。
この資料に対する操作
電子書籍を読むを押すと 電子図書館に移動しこの資料の電子書籍を読むことができます。
書誌情報サマリ
タイトル |
深層学習
|
人名 |
岡谷 貴之/著
|
人名ヨミ |
オカタニ タカユキ |
出版者・発行者 |
講談社
|
出版年月 |
2022.1 |
書誌詳細
この資料の書誌詳細情報です。
書誌種別 |
図書 |
タイトル |
深層学習 |
並列タイトル |
Deep Learning |
シリーズ名 |
機械学習プロフェッショナルシリーズ |
タイトルヨミ |
シンソウ ガクシュウ |
シリーズ名ヨミ |
キカイ ガクシュウ プロフェッショナル シリーズ |
人名 |
岡谷 貴之/著
|
人名ヨミ |
オカタニ タカユキ |
版次 |
改訂第2版 |
出版者・発行者 |
講談社
|
出版者・発行者等ヨミ |
コウダンシャ |
出版地・発行地 |
東京 |
出版・発行年月 |
2022.1 |
ページ数または枚数・巻数 |
16,366p |
大きさ |
21cm |
価格 |
¥3000 |
ISBN |
978-4-06-513332-3 |
ISBN |
4-06-513332-3 |
注記 |
文献:p329〜360 |
分類記号 |
007.13
|
件名 |
深層学習
|
内容紹介 |
深層学習を俯瞰できるテキスト。ネットワークの基本構造から、学習の基礎となる確率的勾配降下法、誤差逆伝播法、異なるタイプのデータを扱うネットワーク、より発展的な学習方法、深層生成モデルまでを解説する。 |
著者紹介 |
東京大学大学院工学系研究科計数工学専攻博士課程修了。東北大学大学院情報科学研究科教授。理化学研究所革新知能統合研究センターチームリーダー。 |
言語区分 |
JPN |
タイトルコード |
1009812557893 |
目次 |
第1章 はじめに |
|
1.1 研究の歴史/1.2 本書の構成 |
|
第2章 ネットワークの基本構造 |
|
2.1 ユニットと活性化関数/2.2 順伝播型ネットワーク/2.3 学習の概要/2.4 問題の定式化:出力層と損失関数の設計 |
|
第3章 確率的勾配降下法 |
|
3.1 確率的勾配降下法(SGD)/3.2 汎化性能と過剰適合/3.3 正則化/3.4 学習率の選定と制御/3.5 SGDの改良/3.6 層出力の正規化/3.7 重みの初期化/3.8 その他 |
|
第4章 誤差逆伝播法 |
|
4.1 勾配計算の煩わしさ/4.2 誤差逆伝播法/4.3 自動微分/4.4 勾配消失問題/4.5 残差接続 |
|
第5章 畳み込みニューラルネットワーク |
|
5.1 単純型細胞と複雑型細胞/5.2 畳み込み/5.3 畳み込み層/5.4 プーリング層/5.5 畳み込み層の出力の正規化/5.6 推論のためのCNNの構造/5.7 入出力間の幾何学的関係/5.8 畳み込み層の一般化/5.9 アップサンプリングと畳み込み/5.10 物体カテゴリ認識への適用例 |
|
第6章 系列データのためのネットワーク |
|
6.1 系列データ/6.2 リカレントニューラルネットワーク/6.3 ゲート機構/6.4 自己回帰モデル/6.5 1次元畳み込みネットワーク/6.6 逆伝播の計算 |
|
第7章 集合・グラフのためのネットワークと注意機構 |
|
7.1 集合データを扱うネットワーク/7.2 注意機構/7.3 トランスフォーマー/7.4 グラフニューラルネットワーク |
|
第8章 推論の信頼性 |
|
8.1 推論の不確かさ/8.2 不確かさの数理モデル/8.3 不確かさの予測/8.4 分布外入力の検出/8.5 敵対的事例/8.6 品質保証の試み |
|
第9章 説明と可視化 |
|
9.1 はじめに/9.2 入力による出力の微分/9.3 入力の遮蔽・挿入/9.4 中間層出力の表示/9.5 寄与度の分解/9.6 寄与度の逆伝播/9.7 可視化手法の評価/9.8 影響関数/9.9 学習内容の可視化 |
|
第10章 いろいろな学習方法 |
|
10.1 距離計量学習/10.2 事例集合(マルチインスタンス)学習/10.3 クラスラベルの誤り/10.4 クラス間不均衡/10.5 継続・追加学習/10.6 知識蒸留/10.7 枝刈り/10.8 計算の量子化/10.9 ネットワーク構造探索(NAS) |
|
第11章 データが少ない場合の学習 |
|
11.1 はじめに/11.2 データ拡張/11.3 転移学習/11.4 半教師あり学習/11.5 自己教師学習/11.6 マルチタスク学習/11.7 ドメイン適応・汎化/11.8 少数事例学習/11.9 能動学習 |
|
第12章 生成モデル |
|
12.1 データの生成モデル/12.2 自己符号化器/12.3 変分自己符号化器(VAE)/12.4 敵対的生成ネットワーク(GAN)/12.5 正規化フロー/12.6 ボルツマンマシン |
目次
内容細目
関連資料
この資料に関連する資料を 同じ著者 出版年 分類 件名 受賞などの切り口でご紹介します。
もどる