こんにちわ、ひひまろです。
今回は、G検定シリーズの第3弾!!【受験体験記】
G検定シリーズも大詰めになってきました。
今回の記事では、2020年3月14日(土)に行われた、
ディープラーニングG検定について、気になる出題内容・難易度をお教えします。
目次
G検定 気になる出題内容 【全214問 問題リスト】
管理人が受験した、2020年3月14日(土)G検定の問題リストを公開します。
リストの見方
- 問題 :そのまま掲載することはできないので、カテゴリーを掲載
- カバー:公式テキスト・『徹底攻略ディープラーニングG検定』(黒本)でカバーできるかどうか
- 難易度:難しい問題
※参考程度にご覧ください
番号 | 問題 | カバー | 難易度 |
1 | AIの歴史 | ○ | |
2 | AIの歴史 | ○ | |
3 | AIの歴史 | ○ | |
4 | AlexNet | ○ | |
5 | ResNet | ○ | |
6 | AIの歴史 | ○ | |
7 | AIの歴史 | ○ | |
8 | 自然言語処理・セマンティックウェブ | ○ | |
9 | 自然言語処理・セマンティックウェブ | ||
10 | DNNのブームの理由 | 難 | |
11 | ゲームで人間に勝てるAIを作る研究 | ○ | |
12 | ゲームで人間に勝てるAIを作る研究 | ○ | |
13 | チューリングテスト | ○ | |
14 | ELIZA | ○ | |
15 | モラベックのパラドックス | ○ | |
16 | ディープラーニングの特徴量 | ○ | |
17 | 自己符号化器 | ○ | |
18 | 意味ネットワーク | ○ | |
19 | Cycプロジェクト | ○ | |
20 | シンボルグラウンディング問題 | ○ | |
21 | フレーム問題 | ○ | |
22 | ディープラーニングによって発展したもの | ○ | 難 |
23 | 知識獲得のボトルネック | ○ | |
24 | 自動運転のレベル別の説明 | ○ | |
25 | 自動運転のレベル別の説明 | ○ | |
26 | 道路交通法の改正 | ○ | |
27 | 道路交通法の改正後、レベル3以上で条件付きで認可 | 難 | |
28 | Kaggle | ○ | |
29 | arXiv | ○ | |
30 | Google Scholar | ○ | |
31 | coursera | ○ | |
32 | データ管理の仕組み | 難 | |
33 | データ管理の仕組み | 難 | |
34 | AIが生成した創作物 | ○ | |
35 | AI自身のリスク | ||
36 | 人間がAIを利用して引き起こすリスク | ||
37 | 法律・社会のあり方のリスク | ||
38 | AAAI | 難 | |
39 | ドローンの飛行規制 | ○ | |
40 | 説明可能な人工知能 | ○ | |
41 | 説明可能な人工知能 | ○ | |
42 | ブラックボックス化 | 難 | |
43 | モデルの記述可能性、複雑性を表現する概念 | 難 | |
44 | Adversarial Examples | 難 | |
45 | 学習済みモデルの知的財産保護 | ○ | |
46 | 個人情報保護法 | ○ | |
47 | Tayの事例 | 難 | |
48 | 不正競争防止法 | ||
49 | DARPA | 難 | |
50 | 説明可能なAIへの投資プログラム | ||
51 | AIの共同開発 | 難 | |
52 | 法的倫理的課題に対処する団体、ガイドライン | ||
53 | EU一般データ保護規制 | ||
54 | 第三者の著作物の学習データ化 | ○ | |
55 | AIの倫理的・法的・社会的な課題 | ||
56 | 自動運転 | ○ | |
57 | 自動運転 | ○ | |
58 | 自動運転 | ○ | |
59 | ディープフェイク | 難 | |
60 | 匿名加工情報 | 難 | |
61 | 個人情報保護法 | ○ | |
62 | 個人情報保護法 | ○ | |
63 | 個人情報保護法 | ○ | |
64 | 協調フィルタリング | ||
65 | 内容ベースフィルタリング | ||
66 | 計算問題(クラス分類) | 難 | |
67 | サポートベクターマシン | ○ | |
68 | サポートベクターマシン | ○ | |
69 | サポートベクターマシン | ○ | |
70 | LSI | ||
71 | LDA | 難 | |
72 | 単純パーセプトロン | ||
73 | 活性化関数 | ○ | |
74 | ベイズの定理 | 難 | |
75 | 自然言語処理のフロー | ○ | |
76 | 自然言語処理のフロー | ○ | |
77 | 自然言語処理のフロー | ○ | |
78 | 自然言語処理のフロー | ○ | |
79 | 自然言語処理のフロー | ○ | |
80 | 情報量 | ||
81 | 最適化手法 | ○ | |
82 | ロジスティクス回帰 | ○ | |
83 | 回帰問題 | ○ | |
84 | 機械学習の各フェーズ | 難 | |
85 | 教師あり学習 | ○ | |
86 | 混同行列 | 難 | |
87 | 過学習 | ○ | |
88 | 単回帰分析の説明 | ○ | |
89 | クラスタリングの特徴 | ○ | 難 |
90 | 重回帰分析 | ||
91 | グリッドサーチ | ||
92 | 次元削減 | ○ | |
93 | 優れたモデルの検証 | 難 | |
94 | 条件分岐を適切な回数に留める手法 | ○ | |
95 | アンサンブル学習 | ○ | |
96 | バギング | ○ | 難 |
97 | ブースティング | ○ | 難 |
98 | k-最近傍法 | 難 | |
99 | クラスタリング | ||
100 | k-平均法 | 難 | |
101 | 決定木 | ○ | |
102 | 決定木 | ○ | |
103 | k-平均法 | 難 | |
104 | 主成分分析 | ○ | |
105 | 交差検証 | 難 | |
106 | k-分割交差検証 | 難 | |
107 | 計算問題(偏微分) | ○ | 難 |
108 | 計算問題(斜辺の長さ) | ||
109 | 過学習の図 | ○ | |
110 | ボルツマンマシン | 難 | |
111 | DNNの説明:重み・バイアス・活性化関数 | ○ | |
112 | DNNの説明:重み・バイアス・活性化関数 | ○ | |
113 | DNNの説明:重み・バイアス・活性化関数 | ○ | |
114 | ハイパラメータ | ○ | |
115 | ハイパラメータ | ○ | |
116 | 訓練誤差・汎化誤差 | ○ | |
117 | 訓練誤差・汎化誤差 | ○ | |
118 | 訓練誤差・汎化誤差 | ○ | |
119 | 確率的勾配降下法 | 難 | |
120 | オンライン学習 | 難 | |
121 | ミニバッチ学習 | ○ | |
122 | バッチ学習 | ○ | |
123 | PyTorch | 難 | |
124 | TensorFlow | 難 | |
125 | Caffe | 難 | |
126 | 多層パーセプトロン | 難 | |
127 | 過学習対策:ドロップアウト | ○ | |
128 | 過学習対策:バッチ正規化 | ○ | |
129 | 過学習対策:データ拡張 | ○ | |
130 | 過学習対策:L2正則化 | ○ | |
131 | 自己符号化器 | ○ | |
132 | データの分布を近似する生成モデル | 難 | |
133 | GANの説明 | ○ | |
134 | プーリング層の説明 | ○ | |
135 | RNNの説明 | ||
136 | 自然言語処理の「注意機構」 | 難 | |
137 | GAN | ○ | |
138 | 変分自己符号化器 | 難 | |
139 | DQNの特徴 | ○ | |
140 | 深層強化学習 | ○ | |
141 | 損失関数 | ||
142 | イテレーション | ○ | |
143 | エポック | ○ | |
144 | DQN→AlphaGo→AlphaGoZero→AlphaStar | 難 | |
145 | RNNの説明:再帰構造 | ○ | |
146 | RNNの説明:系列データ | ○ | |
147 | RNNの説明:情報を一時的に記憶させる | ○ | |
148 | 強化学習で用いられる手法 | ○ | |
149 | ステップ関数 | ○ | |
150 | シグモイド関数 | ○ | |
151 | ReLU関数 | ○ | |
152 | ソフトマックス関数 | ○ | |
153 | LSTMの説明 | ○ | 難 |
154 | LSTMの説明 | ○ | 難 |
155 | CNNの構造 | ○ | |
156 | インセプションモジュールの構造 | 難 | |
157 | GANの説明 | ○ | |
158 | GANの説明 | ○ | |
159 | Transformer | 難 | |
160 | t-SNE | 難 | |
161 | 強化学習のエージェント | ○ | |
162 | 強化学習の具体例 | ○ | |
163 | 強化学習の説明 | ○ | |
164 | 深層強化学習の説明 | ○ | |
165 | DQN | ○ | |
166 | 状態価値を学習する手法 | 難 | |
167 | CNNの畳込み演算の計算 | ○ | 難 |
168 | 隠れマルコフモデル | ○ | |
169 | WaveNet | ○ | |
170 | イアン=グッドフェロー | ○ | |
171 | 学習率 | ○ | |
172 | GoogLeNetの説明 | ||
173 | 自然言語処理モデル | 難 | |
174 | 強化学習の適した課題 | ○ | |
175 | 強化学習の説明 | ○ | |
176 | R-CNNの説明 | 難 | |
177 | 方策勾配法の説明 | 難 | |
178 | 価値反復法の説明 | 難 | |
179 | 誤差逆伝播法の説明 | 難 | |
180 | CNNの説明 | ○ | |
181 | 一般物体検知・セグメンテーション | ||
182 | ImageNetの説明 | ○ | |
183 | CIFARの説明 | ||
184 | MNISTの説明 | ○ | |
185 | アンサンブル学習 | ○ | |
186 | VGG16 | 難 | |
187 | LSTMのゲート数 | 難 | |
188 | 画像処理に関連する技術 | ||
189 | PB→EB→ZB→YB | 難 | |
190 | 強化学習の動向 | ||
191 | 深層強化学習 | ○ | 難 |
192 | マルチモーダル | ○ | 難 |
193 | 一気通貫学習 | ○ | 難 |
194 | キャプション生成 | ○ | |
195 | 照応解析 | ||
196 | 談話構造解析 | ||
197 | 様々な分野でのディープラーニング | ○ | |
198 | Word2Vecの説明:skip-gram | 難 | |
199 | Word2Vecの説明:CBOW | 難 | |
200 | 言語処理技術:BERT | 難 | |
201 | 言語処理技術:BERT | 難 | |
202 | 行動価値関数Qの説明 | 難 | |
203 | 単語埋め込みモデルの説明 | 難 | |
204 | RNNのモデルではないもの | ||
205 | 単語や文章の表現を得られないモデル | ||
206 | 単語埋め込みモデルでないもの | ||
207 | n-gram | 難 | |
208 | 構文解析の説明 | ||
209 | 分散表現の説明 | ||
210 | 物体検出の説明 | ○ | |
211 | セマンティックセグメンテーションの説明 | 難 | |
212 | OCRの説明 | ||
213 | 事前学習の手法 | ||
214 | 転移学習 |
全214問をざっと並べてみました。本番ではこの後に6問ほどのアンケートがありました。
G検定 公式テキスト・黒本だけで合格できるか?【カバー率と難易度】
ここでは、2つの側面から検証したいと思います。
前提として、合格ラインを6割ほどと仮定します。
①公式テキスト・『徹底攻略 ディープラーニングG検定』(黒本)だけで合格できるか?
正直なところ、微妙です。
本を紹介した身としては、『この2冊でいけます!』って自身を持って言いたかった。。。
結論、『たぶん、大丈夫です。。。』
まず、管理人がカバーできると思った問題数は124問、全問が214問なので、
約58%がカバーされていることになります。
また、難しいと感じた問題数(未カバー含む)は66問、こちらも全問124問なので、
約30%が難易度の比較高そうな問題でした。
このことから、公式テキスト・『徹底攻略 ディープラーニングG検定』(黒本)をしっかりと学習し、+αで少し点数を上乗せしてあげれば、なんとか合格点に届くかなという印象です。
最近のニュースや法律関係の問題が多かったため、博識な方は楽かもしれません。
②G検定の今後の難易度について
検定試験なので、基本的なベースの知識を試す問題については大きく難易度は変わらないと思います。しかし、IT・AIといった分野は日々新しくなっていくこと、問題に最近のAIに関する話題や法律関係の出題もあることを考えると、試験全体での難易度はあがる可能性があると思っています。
早めの受験をオススメしたいと思います。
さいごに、一番大事なこと。 管理人の試験の出来は?
試験終了後の画面では、結果発表は3/26(木)くらいにメールみたいなことが書いてあった気がします。
正直なところ、受かっているか、落ちているか、わかりません。
しばらく不安な日常を送ると思います。
だが、しかし、せっかくなので、
第4回目となる最終章で、合格のご報告ができたらいいなと思っています。
今回も最後までお読みいただきありがとうございました。