検索結果資料の内容

ご利用の地域の図書館が所蔵している場合、そちらの方が早く借りられることもあります。
また、ご利用の地域の図書館に申し込み、県立図書館の資料を取り寄せることもできます。
岡山県図書館横断検索


この資料の情報へのリンク:

蔵書情報

この資料の蔵書に関する統計情報です。現在の所蔵数 在庫数 予約数などを確認できます。

所蔵数 1 在庫数 1 予約数 0

資料の状態

各蔵書資料に関する詳細情報です。

No. 資料番号 資料種別 請求記号 配架場所 状態 貸出
1 0016495277図書一般007.13/ヒラ22/2F自然貸出可 

この資料に対する操作

カートに入れる を押すと この資料を 予約する候補として予約カートに追加します。

いますぐ予約する を押すと 認証後この資料をすぐに予約します。

この資料に対する操作

電子書籍を読むを押すと 電子図書館に移動しこの資料の電子書籍を読むことができます。


登録するリストログインメモ


書誌情報サマリ

タイトル

はじめてのパターン認識 ディープラーニング編 

人名 平井 有三/著
人名ヨミ ヒライ ユウゾウ
出版者・発行者 森北出版
出版年月 2022.12


書誌詳細

この資料の書誌詳細情報です。

書誌種別 図書
タイトル はじめてのパターン認識 ディープラーニング編 
タイトルヨミ ハジメテ ノ パターン ニンシキ ディープ ラーニングヘン 
人名 平井 有三/著
人名ヨミ ヒライ ユウゾウ
出版者・発行者 森北出版
出版者・発行者等ヨミ モリキタ シュッパン
出版地・発行地 東京
出版・発行年月 2022.12
ページ数または枚数・巻数 6,266p
大きさ 22cm
価格 ¥3600
ISBN 978-4-627-85071-2
ISBN 4-627-85071-2
注記 文献:p253〜261
分類記号 007.13
件名 パターン認識
件名 深層学習
内容紹介 なぜディープラーニングはうまくいくのか? ディープラーニングを開花させたここ10年の様々な研究成果を網羅的に概観しつつ、ディープラーニングの中枢を担う原理を掘り下げて解説する。「はじめてのパターン認識」の続編。
著者紹介 慶應義塾大学大学院工学研究科電気工学専攻博士課程修了。筑波大学名誉教授。工学博士。
言語区分 JPN
タイトルコード 1009812640629
目次 第1章 はじめに
第2章 復習・誤差逆伝搬法
2.1 全結合型ニューラルネットワーク/2.2 誤差逆伝搬法/2.3 損失関数/2.4 MNIST手書き数字認識の学習(実行例2.1)/2.5 まとめ
第3章 自動微分
3.1 自動微分とは何でないか/3.2 自動微分とグラフ表現/3.3 計算グラフ/3.4 フォワードモード法による自動微分/3.5 リバースモード法による自動微分/3.6 リバースモード法と誤差逆伝搬/3.7 計算グラフを用いたシグモイド関数の微分(練習問題)/3.8 まとめ
第4章 ディープラーニングの最適化技法
4.1 確率的勾配降下法の復習/4.2 慣性項とNesterovの効用(実行例4.1)/4.3 学習定数のスケジューリング/4.4 よい学習定数を見つける簡便な方法(実行例4.2)/4.5 適応型確率的勾配降下法/4.6 Adamを用いた実行例(実行例4.3)/4.7 まとめ
第5章 活性化関数
5.1 シグモイド関数/5.2 ReLUとその派生形/5.3 ELU/5.4 SELU/5.5 SELUが自己正規化特性をもつことの確認(実行例5.1)/5.6 GELU/5.7 まとめ
第6章 パラメータの初期化と正則化
6.1 パラメータ初期化の重要性/6.2 Glorotの初期化と動作確認(実行例6.1)/6.3 Heの初期化と動作確認(実行例6.2)/6.4 直交基底による初期化/6.5 正則化/6.6 L2正則化の例(実行例6.3)/6.7 ドロップアウト正則化/6.8 MCドロップアウト/6.9 ドロップアウトとMCドロップアウトの例(実行例6.4)/6.10 まとめ
第7章 ディープ化の技法
7.1 勾配クリッピング/7.2 バッチ正規化/7.3 バッチ正規化の効用(実行例7.1)/7.4 バッチ正規化の理解に向けて/7.5 その他の正規化技法/7.6 ResNet/7.7 ResNetによるMNIST手書き数字認識(実行例7.2)/7.8 まとめ
第8章 CNN
8.1 CNNの順方向計算/8.2 CNNの誤差逆伝搬/8.3 バッチ正規化とCNN/8.4 Heの初期化とCNN/8.5 畳み込みパラメータ数の低減/8.6 CNNとResNet/8.7 CNNによるMNIST手書き数字認識(実行例8.1)/8.8 コンピュータビジョンとCNN/8.9 まとめ
第9章 VAE
9.1 オートエンコーダ/9.2 VAE/9.3 VAEをニューラルネットワークで実現する方法/9.4 VAEによるMNIST手書き数字の生成(実行例9.1)/9.5 まとめ
第10章 GAN
10.1 GANの基本/10.2 DCGAN/10.3 DCGANによるMNIST手書き数字の生成(実行例10.1)/10.4 WGAN/10.5 スペクトル正規化によるGANの構成/10.6 スペクトル正規化を用いたDCGANの実行(実行例10.2)/10.7 GANからBigGANへ/10.8 生成画像の多様性と質の評価尺度およびトレードオフ/10.9 まとめ
第11章 RNN
11.1 RNNの構造/11.2 BPTT/11.3 LSTMとGRU/11.4 RNNによる言語モデル/11.5 文字列の学習と生成(実行例11.1)/11.6 単語の分散表現/11.7 エンコーダ・デコーダシステム/11.8 Attentionネットワーク/11.9 翻訳文の評価法/11.10 まとめ
第12章 Self‐AttentionとTransformer
12.1 Transformerの概要/12.2 エンコーダ入力/12.3 エンコーダSublayer 1/12.4 エンコーダSublayer 2/12.5 デコーダ/12.6 最終Layer/12.7 TransformerのAblation Study/12.8 GPT-3とBERT/12.9 Transformerの実行例(実行例12.1)/12.10 ViT/12.11 まとめ
付録
A.1 式(9.15)の導出/A.2 誘導ノルムの等価性/A.3 生成画像の評価法(ISとFID)/A.4 翻訳文の評価法(BLEU)



目次


内容細目

関連資料

この資料に関連する資料を 同じ著者 出版年 分類 件名 受賞などの切り口でご紹介します。

007.13 007.13
パターン認識
もどる

本文はここまでです。


ページの終わりです。