1. はじめに:AIジェネラリストに求められる資質とG検定の意義
デジタルトランスフォーメーション(DX)の波が全産業を覆う中、人工知能(AI)、とりわけディープラーニング(深層学習)技術は、もはや一部の研究者やエンジニアだけのものではなく、現代のビジネスパーソンにとって必須の教養(リテラシー)となりました。日本ディープラーニング協会(JDLA)が主催する「G検定(ジェネラリスト検定)」は、この技術を事業に実装し、適切に活用できる人材、「AIジェネラリスト」を認定するための試験です。
本報告書は、G検定の出題範囲であるシラバス(特に2024年・2025年の改訂内容)を徹底的に分析し、合格に必要な知識体系を網羅的に解説するものです。単なる用語の羅列にとどまらず、各技術の歴史的背景、数理的メカニズム、そして社会実装における倫理的・法的課題に至るまで、その「文脈」を深く掘り下げます。
本報告書の構成は、G検定の学習領域に沿って章立てを行っており、各章の末尾には、その領域における重要用語を整理した「用語定義テーブル」を配置しました。これらは合計で200語以上を収録しており、試験直前の総復習や、知識の定着確認に最適な形式となっています。
2. 人工知能(AI)の歴史と定義:ブームと冬の時代のサイクル
AIの現在の隆盛を理解するには、過去に繰り返された「ブーム」と「冬の時代」のサイクル、そしてそれぞれの時代で何が達成され、何が壁となったのかを理解することが不可欠です。G検定では、この歴史的経緯に関する出題が頻出します。
2.1 人工知能の定義と分類
「人工知能(AI)」という言葉に、専門家の間で合意された厳密な定義は存在しません。しかし、試験対策上は、研究者ごとの定義の違いや、AIのレベル分類を理解しておく必要があります。
- レベル1(制御工学): エアコンの温度調整や洗濯機の制御など、単純な制御工学を用いたもの。言われた通りの動きをする「自動化」に近い段階です。
- レベル2(古典的AI): 将棋プログラムや掃除ロボットなど、探索や推論、知識ベースを用いて高度な振る舞いをするもの。入力と出力の関係がルールとして記述されています。
- レベル3(機械学習): 検索エンジンやレコメンデーションシステムのように、データからルールやパターンを学習するもの。特徴量の設計は人間が行います。
- レベル4(ディープラーニング): 画像認識や翻訳システムのように、データの特徴量(着眼点)そのものをAI自身が学習するもの。これが現在のAIブームの中核です。
また、**「強いAI」と「弱いAI」**という哲学的区分も重要です。現在のAI(AlphaGoやChatGPTを含む)はすべて、特定タスクにおいて人間以上の能力を発揮するものの、意識や精神を持たない「弱いAI」に分類されます。
2.2 第1次AIブーム(1950年代〜1960年代):探索と推論
1956年のダートマス会議でジョン・マッカーシーが「Artificial Intelligence」という用語を提唱したことが、AI研究の始まりとされています。この時代は「探索」と「推論」が主役でした。
コンピュータは、迷路の解法や数学の定理証明など、ルールが明確な問題を解くことができました。しかし、現実社会のような複雑な課題(ルールが不明確、例外が多い)には対応できず、「トイ・プロブレム(おもちゃの問題)」しか解けないという批判を受け、ブームは去りました。
2.3 第2次AIブーム(1980年代):知識表現
コンピュータに「知識」を与えれば賢くなるという考えのもと、エキスパートシステムが開発されました。これは、専門家(エキスパート)の知識を「もし〜なら、〜である(If-Thenルール)」という形式で記述し、推論を行うシステムです(例:医療診断システムMYCIN)。
日本では国家プロジェクトとして「第五世代コンピュータ」計画が推進されました。しかし、世の中の常識や膨大な知識をすべて人間が手入力することは不可能であるという**「知識獲得のボトルネック」**に直面しました。また、知識同士の矛盾や例外処理の難しさ(フレーム問題)も露呈し、再び冬の時代が訪れました。
2.4 第3次AIブーム(2010年代〜現在):機械学習と特徴量学習
インターネットの普及によるビッグデータの蓄積と、GPUによる計算能力の向上が、第3次ブームを引き起こしました。最大の特徴は、人間が知識を教え込むのではなく、AIがデータから自律的に学習する点にあります。
特に2012年、画像認識コンペティションILSVRCにおいて、ジェフリー・ヒントン教授率いるチームがディープラーニングを用いて圧勝したことが、爆発的な普及の引き金となりました。これにより、「特徴量設計」という人間にとって最も困難なタスクをAIが代替できるようになったのです。
第1章:AI総論・歴史 重要用語集(30語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| ダートマス会議 | 歴史 | 1956年開催。「人工知能(Artificial Intelligence)」という言葉が初めて使われた会議。ジョン・マッカーシー、マービン・ミンスキーらが参加。 |
| チューリングテスト | 概念 | アラン・チューリングが提唱。別の部屋にいる相手が人間か機械かを判別できるかによって、機械に知能があるかを判定するテスト。 |
| トイ・プロブレム | 歴史 | 第1次AIブームでの限界。迷路やパズルなど、ルールとゴールが明確な「おもちゃの問題」は解けるが、現実の複雑な問題は解けないこと。 |
| エキスパートシステム | 歴史 | 第2次AIブームの主役。専門家の知識を「If-Thenルール」として組み込み、推論を行うシステム。MYCIN(血液疾患診断)やDENDRAL(有機化学)が有名。 |
| 知識獲得のボトルネック | 課題 | エキスパートシステムにおいて、専門家の暗黙知や膨大な常識を、コンピュータが扱えるルールとして記述・入力することの難しさ。 |
| フレーム問題 | 課題 | 現実世界で行動する際、関係のある事柄と関係のない事柄を、無限の可能性の中から選別することの論理的難しさ。「爆弾とバッテリーを運ぶロボット」の思考実験で有名。 |
| シンボルグラウンディング問題 | 課題 | 記号接地問題。AIは記号(言葉)を処理できても、その記号が指し示す現実世界の意味(身体性など)を理解していないという問題。 |
| シンギュラリティ | 概念 | 技術的特異点。AIが自らより賢いAIを作り出せるようになり、技術進歩のスピードが無限大に達する時点。レイ・カーツワイルは2045年と予測。 |
| 中国語の部屋 | 哲学 | ジョン・サールによる思考実験。「マニュアルに従って中国語の質問に答える部屋の中の人」は、中国語を理解していると言えるか?(強いAIへの批判)。 |
| みにくいアヒルの子定理 | 理論 | 「客観的な評価基準(仮定やバイアス)」がなければ、どのような対象も同程度に似ている(あるいは似ていない)ため、分類は不可能であるという定理。 |
| ノーフリーランチ定理 | 理論 | 「あらゆる問題に対して高性能な万能のアルゴリズムは存在しない」という定理。特定のタスクに特化したアルゴリズムを選択する必要性を示唆。 |
| モラベックのパラドックス | 概念 | 「高度な推論(チェスや数学)は計算機にとって容易だが、1歳児レベルの知覚や運動能力(歩行や物体認識)の実現は困難である」という逆説。 |
| バーニーおじさんのルール | 経験則 | モデルを学習させる際、パラメータ数(重みの数)の10倍程度のデータ量が必要であるという経験則。 |
| AI効果 | 現象 | AIが何か新しいことを達成すると(例:文字認識、チェス)、それが「単なる計算処理」とみなされ、「知能」とは呼ばれなくなる心理的現象。 |
| Cyc(サイク)プロジェクト | 歴史 | 1984年から続く、人間が持つ「一般常識」をすべてコンピュータに入力しようとする壮大なプロジェクト。 |
| ELIZA(イライザ) | 歴史 | 1966年に開発された初期のチャットボット。来談者中心療法を模倣し、相手の言葉をオウム返しするだけで、人間らしい対話を感じさせた(イライザ効果)。 |
| 意味ネットワーク | 知識表現 | 概念をノード、関係をリンク(is-a関係など)で結んで知識を表現する方法。 |
| オントロジー | 知識表現 | 概念間の関係性を体系化した辞書や仕様。「ヘビーウェイト・オントロジー」は厳密な定義、「ライトウェイト・オントロジー」はWeb上のタグ付けなどを含む。 |
| セマンティックWeb | Web | Web上の情報にメタデータ(意味)を付与し、コンピュータが自律的に情報を処理できるようにする構想。ティム・バーナーズ=リーが提唱。 |
| 機械学習(Machine Learning) | 定義 | データから反復的に学習し、そこに潜むパターンを見つけ出す技術。アーサー・サミュエルが定義。 |
| ニューラルネットワーク | 技術 | 人間の脳の神経回路網(ニューロン)の動きを模した数理モデル。 |
| ディープラーニング | 技術 | ニューラルネットワークを多層(ディープ)にしたもの。データに含まれる「特徴量」を自動的に学習できる点が画期的。 |
| 表現学習 | 概念 | 生のデータから、分類や予測に必要な特徴(表現)を学習すること。ディープラーニングは表現学習の一種。 |
| ILSVRC | コンペ | 大規模画像認識コンペティション。2012年にAlexNet(ディープラーニング)が圧勝し、ブームの火付け役となった。別名ImageNetコンペ。 |
| AlphaGo | 歴史 | Google DeepMind社が開発した囲碁AI。2016年に世界トップ棋士イ・セドルに勝利。ディープラーニングと強化学習を組み合わせた。 |
| GPU | ハード | 画像処理用半導体。単純な行列演算を並列処理することに長けており、ディープラーニングの計算基盤として不可欠。NVIDIA社が独占的。 |
| GPGPU | 技術 | GPUを画像処理以外の汎用的な科学技術計算(ディープラーニングなど)に転用すること。 |
| ムーアの法則 | 経験則 | 「半導体の集積率は18ヶ月〜24ヶ月で2倍になる」という経験則。計算能力の指数関数的向上を示唆。 |
| ビッグデータ | 概念 | 量(Volume)、種類(Variety)、速度(Velocity)の「3つのV」を特徴とする巨大なデータ群。AI学習の燃料。 |
| IoT (Internet of Things) | 概念 | モノのインターネット。あらゆるモノがネットにつながり、データを収集・送信する仕組み。実世界データの収集源としてAIと密接に関連。 |
3. 数理統計と機械学習の基礎アルゴリズム
ディープラーニングは魔法ではなく、数学(線形代数、微分積分、確率統計)に基づいています。G検定では、高度な計算問題は出ませんが、数式の意味や、各アルゴリズムの仕組みを問う問題が出題されます。
3.1 機械学習の分類
機械学習は、データの扱い方によって大きく3つに分類されます。
- 教師あり学習(Supervised Learning): 「問題データ(入力)」と「正解データ(ラベル)」のセットを与えられ、入力から正解を予測するモデルを学習します。さらに、予測する対象が「カテゴリ(犬か猫か)」の場合は分類問題、「数値(明日の株価)」の場合は回帰問題と呼ばれます。
- 教師なし学習(Unsupervised Learning): 正解ラベルのないデータを与えられ、データ自体の構造や性質を学習します。似たデータを集めるクラスタリングや、データを圧縮する次元削減が代表的です。
- 強化学習(Reinforcement Learning): 試行錯誤を通じて、報酬を最大化するような行動指針(方策)を学習します。
3.2 モデルの評価と課題
学習における最大の敵は**「過学習(Overfitting)」です。これは、訓練データに適合しすぎてしまい、未知のデータに対する予測性能(汎化性能)が低下する現象です。逆に、学習不足でパターンを捉えきれていない状態を「未学習(Underfitting)」**と呼びます。
評価指標も重要です。単なる「正解率(Accuracy)」だけでなく、データの偏りを考慮した「適合率(Precision)」「再現率(Recall)」「F値」を使い分ける必要があります。例えば、ガンの検診AIでは、ガンを見逃す(偽陰性)リスクを避けるため、「再現率」を重視すべきです。
3.3 古典的な機械学習アルゴリズム
ディープラーニング以前の「古典的」な手法も、データ数が少ない場合や解釈性が求められる場合には現役で使われます。
- ロジスティック回帰: 名前に「回帰」とつきますが、実際は分類アルゴリズムです。シグモイド関数を用いて、ある事象が起こる確率を出力します。
- SVM(サポートベクターマシン): データを分割する境界線(超平面)を、データとの距離(マージン)が最大になるように引く手法です。カーネル法を使うことで、複雑な非線形な境界線も引くことができます。
- 決定木・ランダムフォレスト: データを「イエス/ノー」の質問で分割していく手法です。ランダムフォレストは、複数の決定木を作って多数決をとる「アンサンブル学習」の一種で、非常に強力です。
- k-means法: 代表的な教師なし学習(クラスタリング)。データをk個のグループに分けますが、最初に決める「k」の数や初期値によって結果が変わる点に注意が必要です。
第2章:数理・機械学習アルゴリズム 重要用語集(35語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| 教師あり学習 | 分類 | 入力と正解(教師データ)のペアで学習。回帰(数値予測)と分類(クラス判別)がある。 |
| 教師なし学習 | 分類 | 正解ラベルなしで学習。クラスタリング(グループ化)や次元削減、異常検知などに利用。 |
| 強化学習 | 分類 | エージェントが環境の中で行動し、得られる報酬を最大化するように学習する。 |
| 半教師あり学習 | 分類 | 少量のラベル付きデータと大量のラベルなしデータを用いる手法。ラベル付けコストが高い場合に有効。 |
| 線形回帰 | 回帰 | データを最もよく表す直線(回帰直線)を求める手法。最小二乗法などが使われる。 |
| ロジスティック回帰 | 分類 | 2値分類問題に使われる。シグモイド関数を用いて、出力(確率)を0から1の間に収める。 |
| サポートベクターマシン (SVM) | 分類 | クラス間のマージン(境界までの距離)を最大化する境界線を引く。カーネル法で非線形分離も可能。 |
| 決定木 | 分類・回帰 | データを条件分岐によって分割していくモデル。解釈性が高い(ホワイトボックス)が、過学習しやすい。 |
| ランダムフォレスト | アンサンブル | 複数の決定木を作成し(バギング)、その多数決や平均で結果を出す手法。過学習を抑え、精度が高い。 |
| k-近傍法 (k-NN) | 分類 | 未知のデータに対し、距離が近い順にk個の学習データを参照し、多数決でクラスを決める怠惰学習。 |
| k-means法 | クラスタリング | データをk個のクラスタに分ける教師なし学習。重心の更新を繰り返す。初期値依存性がある。 |
| 主成分分析 (PCA) | 次元削減 | データの情報をできるだけ損なわずに、変数の数を減らす手法。分散が最大になる軸(主成分)を見つける。 |
| 単純ベイズ(ナイーブベイズ) | 分類 | ベイズの定理を応用した確率的分類器。特徴量間の独立性を仮定する。スパムメールフィルタなどで有名。 |
| アンサンブル学習 | 手法 | 複数の弱学習器を組み合わせて、強力な学習器を作る手法の総称。バギング、ブースティング、スタッキングがある。 |
| バギング | アンサンブル | データを復元抽出して複数のモデルを並列に学習させ、結果を平均化する。ランダムフォレストが代表例。 |
| ブースティング | アンサンブル | 弱学習器を直列につなぎ、前のモデルが間違えたデータを重点的に学習させていく。AdaBoost、XGBoost、LightGBMなど。 |
| 勾配ブースティング木 (GBDT) | アルゴリズム | 決定木をブースティングで組み合わせた手法。Kaggleなどのコンペで非常に人気が高い。 |
| 過学習 (Overfitting) | 問題 | モデルが訓練データに適合しすぎて、未知データへの対応力を失うこと。バリアンスが高い状態。 |
| 未学習 (Underfitting) | 問題 | モデルの表現力が低すぎて、訓練データの特徴さえ捉えられていないこと。バイアスが高い状態。 |
| バイアス・バリアンス分解 | 理論 | 誤差を「バイアス(モデルの単純さによる誤差)」と「バリアンス(データへの過敏さによる誤差)」に分解して考える概念。トレードオフの関係。 |
| 正則化 (L1/L2) | 対策 | 誤差関数にペナルティ項(重みの大きさ)を加え、モデルを単純化して過学習を防ぐ。L1(ラッソ)は重みを0にしやすく、L2(リッジ)は0に近づける。 |
| ホールドアウト法 | 評価 | データを「学習用」と「テスト用」に分割して評価する方法。 |
| k-分割交差検証 (Cross Validation) | 評価 | データをk個に分割し、そのうち1つをテスト用、残りを学習用として、k回入れ替えて評価する。データが少ない時に有効。 |
| 混同行列 (Confusion Matrix) | 評価 | クラス分類の結果を、真陽性(TP)、偽陽性(FP)、偽陰性(FN)、真陰性(TN)の表にまとめたもの。 |
| 正解率 (Accuracy) | 指標 | 全データのうち、正しく予測できた割合。(TP+TN) / 全体。不均衡データでは信用できない場合がある。 |
| 適合率 (Precision) | 指標 | 陽性と予測したもののうち、実際に陽性だった割合。TP / (TP+FP)。「誤検出」を減らしたい時に重視。 |
| 再現率 (Recall) | 指標 | 実際の陽性のうち、正しく陽性と予測できた割合。TP / (TP+FN)。「見逃し」を減らしたい時に重視。 |
| F値 (F-measure) | 指標 | 適合率と再現率の調和平均。両方のバランスを見る指標。 |
| ROC曲線 | 評価 | 閾値を変化させた時の、真陽性率(縦軸)と偽陽性率(横軸)の軌跡を描いた曲線。 |
| AUC (Area Under Curve) | 指標 | ROC曲線の下側の面積。1に近いほど性能が良いモデル。ランダムだと0.5になる。 |
| 標準化 | 前処理 | データを平均0、分散1になるように変換すること。スケールの異なる変数を扱う際に必須。 |
| 正規化 | 前処理 | データを0から1の範囲(または-1から1)に収まるように変換すること。 |
| ワンホットエンコーディング | 前処理 | カテゴリ変数を、「赤=」「青=」のように、1つだけが1で他が0のベクトルに変換すること。 |
| 次元の呪い | 問題 | データの次元(変数の数)が増えると、空間がスカスカになり、学習に必要なデータ量が指数関数的に増える現象。 |
| グリッドサーチ | パラメータ探索 | ハイパーパラメータの候補を格子状(グリッド)に全通り試して、最適な組み合わせを探す方法。 |
4. ディープラーニングの基礎:ニューラルネットワークの仕組み
ディープラーニング(深層学習)は、多層のニューラルネットワークを用いる機械学習の一種です。ここでは、その学習メカニズムの核心に迫ります。
4.1 ニューロンと活性化関数
ニューラルネットワークの最小単位は「ニューロン(形式ニューロン)」です。複数の入力に対し、それぞれの「重み」を掛けて足し合わせ、さらに「バイアス」を加えます。この合計値に対し、「活性化関数」を通して出力を決定します。
活性化関数は、ネットワークに非線形性を与える重要な役割を持ちます。これがないと、層をいくら重ねても単なる線形変換(掛け算と足し算)にしかならず、複雑な表現ができません。
- シグモイド関数: 昔はよく使われましたが、入力が大きくなると勾配(微分値)がほぼ0になり、学習が進まなくなる**「勾配消失問題」**を引き起こすため、中間層では使われなくなりました。
- ReLU(Rectified Linear Unit): 現在のデファクトスタンダードです。入力が正ならそのまま出力、負なら0を出力します。計算が単純で、かつ勾配消失が起きにくい(正の領域で微分値が常に1)という特性があります。
4.2 学習の仕組み:誤差逆伝播法
ニューラルネットワークの「学習」とは、出力が正解に近づくように、ネットワーク内の大量の「重み」と「バイアス」を微調整することです。
- 順伝播(Forward): データを入力し、予測値を出力します。
- 誤差計算: 予測値と正解とのズレ(損失)を、損失関数(二乗誤差や交差エントロピー誤差)で計算します。
- 誤差逆伝播(Backpropagation): 算出した誤差を出力層から入力層に向かって逆向きに伝え、各パラメータが誤差にどの程度責任があるか(勾配)を計算します。
- パラメータ更新: 計算した勾配に基づき、最適化アルゴリズム(SGD、Adamなど)を使って、誤差が減る方向にパラメータを少しだけ更新します。
4.3 学習を安定させるテクニック
深層学習は非常に繊細で、そのままではうまく学習できません。様々なテクニックが必要です。
- 初期化: 重みの初期値を適当に決めると学習が進みません。ReLUを使うならHeの初期値、シグモイドやtanhを使うならXavierの初期値を使います。
- バッチ正規化: 各層への入力を強制的に「平均0、分散1」に整えることで、学習を劇的に安定・高速化させます。
- ドロップアウト: 学習中にランダムにニューロンを無効化(サボらせる)することで、特定のニューロンへの依存を防ぎ、過学習を抑制します。
第3章:ディープラーニング基礎 重要用語集(30語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| 単純パーセプトロン | モデル | 入力層と出力層のみの2層モデル。線形分離可能な問題(AND, ORなど)しか解けず、XOR問題は解けない。 |
| 多層パーセプトロン (MLP) | モデル | 中間層(隠れ層)を持つネットワーク。理論上、任意の関数を近似できる(万能近似定理)。 |
| 活性化関数 | 要素 | ニューロンの興奮状態を決める関数。非線形性を導入するために必須。 |
| シグモイド関数 | 活性化関数 | 値を(0, 1)に滑らかに変換する。出力層で確率として扱う場合に使われるが、中間層では勾配消失の原因となる。 |
| ReLU (ランプ関数) | 活性化関数 | x>0でx、x<=0で0を出力。勾配消失しにくく計算も速いため、現在の中間層の主流。 |
| ソフトマックス関数 | 活性化関数 | 多クラス分類の出力層で使われる。出力の合計が1になるように正規化し、各クラスの確率として扱えるようにする。 |
| tanh (ハイパボリックタンジェント) | 活性化関数 | 値を(-1, 1)に変換する。シグモイドよりは勾配消失しにくいが、やはり層が深くなると問題になる。 |
| Leaky ReLU | 活性化関数 | ReLUの改良版。x<0の領域で0ではなくわずかな傾きを持たせ、ニューロンが完全に死ぬのを防ぐ。 |
| 目的関数(損失関数) | 計算 | モデルの予測と正解のズレを測る関数。これを最小化することが学習の目的。 |
| 平均二乗誤差 (MSE) | 損失関数 | 回帰問題でよく使われる。誤差の二乗の平均をとる。 |
| 交差エントロピー誤差 | 損失関数 | 分類問題でよく使われる。正解クラスの確率の対数をとったもの。 |
| 勾配降下法 | 最適化 | 損失関数の勾配(傾き)を計算し、坂を下るようにパラメータを更新する方法。 |
| 確率的勾配降下法 (SGD) | 最適化 | 全データではなく、ランダムに選んだ1つ(または少数)のデータで更新を行う。計算が速く、局所解に陥りにくい。 |
| ミニバッチ学習 | 学習法 | データを「ミニバッチ」と呼ばれる小集団に分け、バッチごとに更新を行う手法。GPUの並列処理を活用できる。 |
| エポック (Epoch) | 用語 | 訓練データを一通りすべて学習し終えることの単位。 |
| イテレーション (Iteration) | 用語 | 重みの更新回数。データ数1000、バッチサイズ100なら、1エポックで10イテレーション。 |
| モーメンタム | 最適化 | SGDに「慣性」の項を加えたもの。振動を抑え、学習を加速させる。 |
| AdaGrad | 最適化 | パラメータごとに学習率を調整する。過去に大きく更新されたパラメータの学習率を下げる。学習が進むと学習率が0に近づきすぎる欠点がある。 |
| RMSprop | 最適化 | AdaGradの欠点を改善し、過去の勾配情報を指数平滑移動平均で割り引くことで、学習率が極端に小さくなるのを防ぐ。 |
| Adam | 最適化 | モーメンタムとRMSpropの利点を組み合わせた手法。現在最も広く使われている最適化アルゴリズムの一つ。 |
| 誤差逆伝播法 (Backpropagation) | アルゴリズム | 出力層の誤差を入力層に向かって逆順に伝播させ、各パラメータの勾配を効率的に計算する手法。微分の連鎖律を利用。 |
| 勾配消失問題 | 課題 | 層が深くなるにつれて、入力層近くの勾配が0に近づき、学習が進まなくなる現象。 |
| 勾配爆発 | 課題 | 逆に、勾配が巨大になりすぎて、重みが発散してしまう現象。RNNなどで起きやすい。 |
| Xavierの初期値 | 初期化 | 前の層のノード数に合わせて初期値の分散を決める。シグモイド関数やtanh関数に適している。 |
| Heの初期値 | 初期化 | Xavierの改良版。ReLU関数に適している。現在の標準的な初期化手法。 |
| ドロップアウト | 正則化 | 学習時にランダムにニューロンを選んで無効化する。アンサンブル学習と同様の効果があり、過学習を防ぐ。 |
| バッチ正規化 (Batch Normalization) | 正則化 | 各層の入力を、バッチごとに平均0、分散1に正規化する。学習の安定化、高速化、過学習抑制など多くのメリットがある。 |
| 早期終了 (Early Stopping) | 正則化 | テストデータに対する誤差が下がらなくなった時点で、学習を強制的に打ち切る手法。過学習を防ぐ。 |
| データ拡張 (Data Augmentation) | 前処理 | 画像を回転、反転、拡大縮小、ノイズ付加などで水増しし、擬似的にデータ数を増やす技術。 |
| 局所最適解 (Local Minima) | 概念 | 本当の最小値(大域最適解)ではないが、周りよりは低い窪み。ここにはまると抜け出せなくなるリスクがあるが、高次元空間では鞍点の方が多いとされる。 |
5. 画像認識とCNN(畳み込みニューラルネットワーク)
ディープラーニングが最初に世界を驚かせたのが画像認識分野です。ここでは、人間の視覚野の構造を模倣した**CNN(Convolutional Neural Network)**が主役です。
5.1 CNNの構造:畳み込みとプーリング
CNNは、**「畳み込み層」と「プーリング層」**を交互に重ねて構成されます。
- 畳み込み層: 画像に小さなフィルタ(カーネル)をスライドさせながら掛け合わせることで、「縦の線」「横の線」「角」といった特徴を抽出します。フィルタの値自体も学習によって自動獲得されます。
- プーリング層: 画像を縮小し、情報を圧縮します。これにより、対象物が多少ズレたり変形したりしても、同じものとして認識できる**「位置不変性」**を獲得します。最大値をとるMaxプーリングが一般的です。
5.2 代表的なCNNアーキテクチャの進化
- LeNet (1998): ヤン・ルカンが開発。手書き数字認識(MNIST)に成功。現在のCNNの原型。
- AlexNet (2012): ディープラーニングブームの始祖。ReLUやドロップアウトを導入。
- VGG (2014): 小さなフィルタ(3x3)を深く重ねることで性能向上。構造が単純で使いやすいため、今でも転移学習のベースによく使われます。
- GoogLeNet (Inception): 複数のサイズのフィルタを並列に適用する「Inceptionモジュール」を導入。
- ResNet (2015): **「スキップ結合(Residual Connection)」**を導入。前の層の入力を後の層に足し合わせることで、勾配の通り道を作り、100層を超える超深層ネットワークの学習を可能にしました。これは革命的な発明でした。
5.3 物体検出とセグメンテーション
単に「画像に何が写っているか」を当てるだけでなく、より高度なタスクがあります。
- 物体検出(Object Detection): 画像内のどこに何があるかを矩形(バウンディングボックス)で囲みます。R-CNN系(精度重視)と、YOLO/SSD系(速度重視・リアルタイム)があります。
- セマンティック・セグメンテーション: 画像をピクセル単位で塗り分けます(例:ここは道路、ここは歩道)。FCNやU-Netが有名です。
第4章:CNN・画像処理 重要用語集(25語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| 畳み込み層 (Convolution) | CNN | フィルタを用いて画像から局所的な特徴(エッジなど)を抽出する層。 |
| カーネル (フィルタ) | CNN | 畳み込み演算に使われる重みの行列。3x3や5x5などが一般的。 |
| プーリング層 | CNN | 画像サイズを圧縮し、位置ズレに対する頑健性を高める層。パラメータ(重み)を持たない。 |
| Maxプーリング | CNN | 領域内の最大値を取り出すプーリング。特徴を強調する効果がある。 |
| ストライド | CNN | フィルタをスライドさせる幅。ストライドを大きくすると出力サイズは小さくなる。 |
| パディング | CNN | 画像の周囲に0などを埋めてサイズを調整すること。「ゼロパディング」により、畳み込みによるサイズ縮小を防ぐ。 |
| 全結合層 | CNN | CNNの最後にある層。抽出された特徴を使って最終的なクラス分類を行う。 |
| ネオコグニトロン | 歴史 | 1980年に福島邦彦が提唱。視覚野の単純型細胞・複雑型細胞をモデル化。CNNの始祖とされる。 |
| LeNet | モデル | 1998年、Yann LeCunらが開発。手書き数字認識で実用化された初期のCNN。 |
| AlexNet | モデル | 2012年のILSVRC優勝モデル。8層。ReLU、Dropout、GPUの活用など、現代の手法の基礎を確立。 |
| VGG | モデル | 2014年2位。3x3の小さなフィルタを多層化(16層・19層)したシンプルな構造。 |
| GoogLeNet | モデル | 2014年優勝。Inceptionモジュールにより、横方向への広がりを持たせた。パラメータ数が少ないのが特徴。 |
| ResNet | モデル | 2015年優勝。スキップ結合(ショートカット)により、層を深くしても学習できる「残差学習」を実現。152層まで深化。 |
| Global Average Pooling (GAP) | 手法 | 全結合層の代わりに、特徴マップごとの平均値を使う手法。パラメータ数を劇的に減らせる。 |
| 転移学習 (Transfer Learning) | 手法 | 大規模データ(ImageNetなど)で学習済みモデルの重みを、別のタスクの初期値として使い、再学習する手法。 |
| ファインチューニング | 手法 | 転移学習の一種。学習済みモデルの一部の重みを固定せず、全体または一部を微調整する。 |
| R-CNN | 物体検出 | 候補領域を切り出し、それぞれにCNNをかける手法。精度は高いが計算に時間がかかる。 |
| Fast R-CNN | 物体検出 | R-CNNを高速化。画像全体に一度だけCNNをかけ、特徴マップから領域を切り出す(ROI Pooling)。 |
| Faster R-CNN | 物体検出 | 候補領域の提案(RPN)もニューラルネットで行い、完全なEnd-to-End学習を実現した手法。 |
| YOLO (You Only Look Once) | 物体検出 | 画像をグリッドに分割し、領域推定とクラス分類を同時に行う回帰問題として解く。非常に高速。 |
| SSD (Single Shot Detector) | 物体検出 | 異なる解像度の特徴マップを使うことで、大小様々な物体の検出を可能にした高速手法。 |
| セマンティック・セグメンテーション | 分割 | 画像の全ピクセルに対してクラス分類を行う(「車」「道路」など)。個体の区別はしない。 |
| インスタンス・セグメンテーション | 分割 | 物体検出とセグメンテーションの組み合わせ。「車A」「車B」のように個体も区別する。Mask R-CNNなど。 |
| FCN (Fully Convolutional Network) | 分割 | 全結合層を畳み込み層に置き換え、任意のサイズの画像を入力可能にしたセグメンテーション用モデル。 |
| U-Net | 分割 | Encoder-Decoder構造とスキップ結合を持つU字型のモデル。医療画像などの少データ学習に強い。 |
6. 自然言語処理(NLP)と時系列データ処理
テキストや音声などの「時系列データ」は、文脈(順序)が重要であるため、通常のニューラルネットでは扱えません。ここでは、言葉をベクトル化する技術から、現在の生成AIの基盤となるTransformerまでの進化を追います。
6.1 言葉のベクトル化:Word2Vec
コンピュータに言葉を理解させるには、言葉を数値の列(ベクトル)に変換する必要があります。
- One-hotベクトル: 「りんご」=、「みかん」=のように表現。単語間の意味の近さを表現できない欠点があります。
- 分散表現(Word2Vec): 「王様 - 男 + 女 = 女王」のような計算ができるベクトルを作ります。周囲の単語からその単語の意味を予測するように学習することで、単語の意味を空間上の位置として獲得します。
6.2 RNNからAttention、そしてTransformerへ
- RNN(再帰型ニューラルネット): 前の時刻の計算結果を次の時刻に引き継ぐループ構造を持ちます。しかし、過去の情報をすぐに忘れてしまう問題がありました。
- LSTM / GRU: 情報を「忘れるゲート」「保持するゲート」などを追加し、長い文脈を記憶できるようにしたRNNの改良版です。
- Seq2Seq: 入力を処理するEncoderと、出力を生成するDecoderをつなげたモデル。翻訳やチャットボットに使われました。
- Attention(注意機構): 「文中のどの単語に注目すべきか」を学習する仕組み。これにより翻訳精度が飛躍的に向上しました。
- Transformer (2017): 「RNNはもう不要。Attentionだけでいい(Attention Is All You Need)」と宣言した画期的なモデル。並列計算が可能になり、大規模化への道を開きました。これがBERTやGPTの基礎となっています。
第5章:自然言語処理・系列データ 重要用語集(25語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| 形態素解析 | 前処理 | 文を単語(形態素)の最小単位に分解し、品詞を特定する処理。日本語ではMeCabなどが有名。 |
| Bag-of-Words (BoW) | 表現 | 文書内の単語の出現回数だけを数えてベクトル化する手法。語順(文脈)は無視される。 |
| TF-IDF | 表現 | 単語の重要度を評価する指標。「その文書によく出る(TF)」かつ「他の文書にはあまり出ない(IDF)」単語を重視する。 |
| n-gram | 表現 | 連続するn個の単語や文字をひとかたまりとして扱う手法。文脈をある程度考慮できる。 |
| Word2Vec | 埋め込み | 単語を低次元の実数ベクトル(分散表現)に変換するニューラルネット。単語の意味的演算が可能になる。 |
| スキップグラム (Skip-gram) | モデル | Word2Vecの一種。ある単語から、その周囲の単語を予測するモデル。マニアックな単語の学習に強い。 |
| CBOW | モデル | Word2Vecの一種。周囲の単語から、真ん中の単語を予測するモデル。学習が速い。 |
| ELMo | モデル | 文脈に応じて単語ベクトルを変化させるモデル。「銀行(Bank)」が金融機関か土手かを区別できる。 |
| RNN (Recurrent Neural Network) | モデル | 中間層にループ構造を持ち、時系列データを扱えるネットワーク。BPTT法で学習する。 |
| BPTT | 学習法 | Backpropagation Through Time。時間を遡って誤差を伝播させる学習法。過去に遡りすぎると勾配消失・爆発が起きる。 |
| LSTM | モデル | Long Short-Term Memory。入力・出力・忘却ゲートとセル状態を導入し、長期依存性の学習を可能にしたRNN。 |
| GRU | モデル | LSTMを簡素化したモデル。計算コストが低く、データが少ない場合に有利。 |
| Seq2Seq (Encoder-Decoder) | モデル | 系列を入力して系列を出力するモデル。機械翻訳、要約、対話生成などに利用される。 |
| Attention (注意機構) | 機構 | 出力時に、入力データのどの部分に注目すべきかの重み付けを動的に計算する仕組み。長い文章の翻訳精度を劇的に改善。 |
| Transformer | モデル | RNNを使わず、Self-Attention(自己注意機構)のみで構成されたモデル。並列計算が可能で、BERTやGPTのベースとなった。 |
| Self-Attention | 機構 | 文中のある単語が、同じ文中の他のどの単語と関係しているか(係り受けなど)を計算する仕組み。 |
| BERT | モデル | Google開発。TransformerのEncoder部分を使用。文章の穴埋め問題(マスク)を解くことで、文脈を双方向から学習したモデル。分類や質問応答に強い。 |
| GPT | モデル | OpenAI開発。TransformerのDecoder部分を使用。次の単語を予測するように学習したモデル。文章生成に特化している。 |
| 事前学習 (Pre-training) | 学習法 | 大量のラベルなしデータで汎用的な言語能力を学習させること。 |
| 転移学習 (Fine-tuning) | 学習法 | 事前学習済みモデルを、特定のタスク(感情分析など)のデータで再学習させ、特化させること。 |
| BLEUスコア | 評価 | 機械翻訳の評価指標。人間が作成した正解文と、生成文のn-gramの一致度を測る。 |
| パープレキシティ | 評価 | 言語モデルの「迷いの度合い」を示す指標。値が小さいほど、次の単語を確信を持って予測できている(性能が良い)。 |
| 固有表現抽出 (NER) | タスク | テキストから人名、地名、組織名などの固有名詞を特定・抽出するタスク。 |
| 感情分析 (Sentiment Analysis) | タスク | テキストが肯定的か否定的かを判定するタスク。 |
| トークン | 用語 | LLMが処理するテキストの最小単位。単語より細かく、文字より大きいことが多い。 |
7. 生成AI(Generative AI):2024年以降の新シラバス重点領域
ここが最新のG検定における最重要・最難関パートです。識別モデル(犬か猫かを当てる)から、生成モデル(犬の画像を新しく描く)へのパラダイムシフトを理解する必要があります。
7.1 生成モデルの進化:GANから拡散モデルへ
- VAE(変分オートエンコーダ): 画像を潜在変数(確率分布)に圧縮し、そこから再構築します。ぼやけた画像になりがちでした。
- GAN(敵対的生成ネットワーク): 「偽札作り(生成器)」と「警察(識別器)」を戦わせることで、リアルな画像を生成します。学習が不安定(モード崩壊)なのが難点でした。
- 拡散モデル(Diffusion Model): 画像にノイズを徐々に加えて砂嵐にし、その逆再生(ノイズ除去)を学習することで画像を生成します。Stable Diffusionの基礎技術であり、計算量は多いですが、高品質で多様な画像が作れます。
7.2 大規模言語モデル(LLM)の活用とリスク
ChatGPTなどのLLMは**「基盤モデル」**と呼ばれ、ファインチューニングなしでも、プロンプト(指示)だけで多様なタスクをこなします。
- プロンプトエンジニアリング: 「段階的に考えて(Chain-of-Thought)」と指示すると推論能力が上がるなど、入力の工夫だけで性能を引き出す技術です。
- RAG(検索拡張生成): LLMは知識のカットオフ(例:2023年までの知識しかない)があり、嘘をつく(ハルシネーション)問題があります。これを防ぐため、外部のデータベースを検索し、その情報を元に回答させる技術がRAGです。
- リスク: 著作権侵害、バイアス、ディープフェイク、プロンプトインジェクション(脱獄)などのセキュリティリスクへの理解が必須です。
第6章:生成AI・LLM 重要用語集(30語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| 生成AI (Generative AI) | 概念 | 学習データの分布を学習し、そこから新しいデータをサンプリング(生成)するAIの総称。 |
| 基盤モデル (Foundation Model) | 概念 | 大量のデータで事前学習され、微調整によって多様な下流タスクに適応できる超巨大モデル(GPT-4など)。 |
| VAE (変分オートエンコーダ) | 生成 | データを潜在空間の確率分布(平均と分散)にエンコードし、そこからサンプリングしてデコードする。画像はぼやけやすい。 |
| GAN (敵対的生成ネットワーク) | 生成 | Generator(生成器)とDiscriminator(識別器)を競わせる。くっきりした画像ができるが、学習が不安定。 |
| モード崩壊 (Mode Collapse) | 課題 | GANの失敗例。生成器が、識別器を騙しやすい特定のパターンの画像ばかり生成してしまい、多様性が失われる現象。 |
| 拡散モデル (Diffusion Model) | 生成 | 画像にノイズを加えていく拡散過程と、ノイズを除去して画像を復元する逆拡散過程を学習する。現在の画像生成AIの主流。 |
| CLIP | モデル | 画像とテキストのペアを大量に学習し、画像とテキストを同じベクトル空間で扱えるようにしたモデル。画像生成AIの「言葉を理解する目」として機能。 |
| LLM (Large Language Model) | モデル | 数十億〜数兆パラメータを持つ巨大な言語モデル。スケーリング則に従い、能力が向上する。 |
| スケーリング則 | 法則 | モデルのサイズ、データ量、計算量を増やせば増やすほど、性能がべき乗則に従って予測可能に向上するという法則。 |
| 創発 (Emergence) | 現象 | モデルが一定の規模を超えると、突然、計算や推論など、訓練していなかった能力を獲得する現象。 |
| ハルシネーション | 課題 | LLMが、もっともらしいが事実ではない嘘の情報を生成してしまう現象。幻覚。 |
| プロンプトエンジニアリング | 技術 | LLMから望ましい出力を得るために、入力文(プロンプト)を工夫・最適化する技術。 |
| Zero-shot / Few-shot | 手法 | 例を全く与えない(Zero)、あるいは数個与える(Few)だけでタスクを行わせるプロンプティング手法。 |
| Chain-of-Thought (CoT) | 手法 | 「ステップバイステップで考えて」と指示することで、LLMに中間推論過程を出力させ、複雑な問題の正答率を上げる手法。 |
| RAG (検索拡張生成) | 手法 | LLMに外部データベース(社内文書など)を検索させ、その検索結果をプロンプトに含めて回答させることで、ハルシネーションを抑制する技術。 |
| ファインチューニング | 学習 | 特定のタスクに合わせてモデル全体の重みを更新すること。コストが高い。 |
| PEFT (Parameter-Efficient Fine-Tuning) | 学習 | モデルの重みの大部分を固定し、ごく一部の追加パラメータのみを学習させる効率的な手法。LoRAが代表的。 |
| LoRA | 学習 | 低ランク行列を用いて、少数のパラメータで効率的に追加学習を行うPEFTの一種。 |
| RLHF | 学習 | 人間からのフィードバックを用いた強化学習。人間の好み(安全性や有用性)に合わせてLLMを調整(アライメント)する。ChatGPTで使用。 |
| プロンプトインジェクション | 攻撃 | LLMに特殊な命令を入力し、開発者が設定した制限(倫理フィルターなど)を無視させる攻撃。 |
| 敵対的サンプル (Adversarial Example) | 攻撃 | 人間にはわからない微細なノイズを画像に加えることで、AIを誤認識させる攻撃。 |
| ディープフェイク | リスク | AIを用いて生成された、本物と見分けがつかない偽の動画や音声。社会的混乱や詐欺のリスクがある。 |
| 著作権法30条の4 | 法律 | 日本の著作権法。AIの学習(情報解析)目的であれば、著作権者の許諾なく著作物を利用できるという例外規定。「享受」目的はNG。 |
| マルチモーダルAI | 概念 | テキスト、画像、音声など、複数の異なる種類のデータ(モダリティ)を同時に扱えるAI。 |
| GLUE / SuperGLUE | 評価 | 自然言語処理モデルの汎用的な性能を測るためのベンチマークタスクセット。 |
| NeRF | 生成 | 複数の2次元画像から、3次元のシーン(放射輝度場)をニューラルネットで表現・生成する技術。3D生成AIの基礎。 |
| StyleGAN | 生成 | GANの一種。画像の「スタイル(画風や特徴)」を段階的に適用し、高精細な顔画像などを生成できる。NVIDIA開発。 |
| Pix2Pix | 生成 | 線画を写真に変換するなど、ペア画像を用いて画像を変換するGAN。 |
| CycleGAN | 生成 | 馬をシマウマに変えるなど、ペア画像なしで画像のスタイル変換を行うGAN。 |
| AGI (汎用人工知能) | 概念 | 特定のタスクだけでなく、人間のようにあらゆる知的タスクをこなせる仮説上のAI。OpenAIなどの最終目標。 |
8. 強化学習:試行錯誤による最適行動の獲得
AlphaGoやロボット制御、自動運転の制御などで使われる強化学習は、教師あり学習とは全く異なる枠組みです。「正解」の代わりに「報酬」を使います。
8.1 基本概念
エージェント(AI)が環境の状態を見て、行動を選択し、その結果として報酬を得ます。目的は、将来得られる報酬の合計(割引現在価値)を最大化することです。
ここで**「探索と活用のトレードオフ」**が発生します。過去にうまくいった行動ばかりしていては(活用)、もっと良い新しい手が見つかりません。かといって、あてずっぽうに動いてばかり(探索)では報酬が得られません。
8.2 主要アルゴリズム
- Q学習: ある状態で、ある行動をとった時の「価値(Q値)」をテーブル(Qテーブル)に記録していく方法。
- DQN(Deep Q-Network): Qテーブルの代わりに、ディープラーニングを使ってQ値を推定する方法。Atariのブロック崩しなどで人間を超えました。
- AlphaGo: モンテカルロ木探索(先読み)に、盤面の価値を判断するニューラルネットを組み合わせました。
第7章:強化学習 重要用語集(15語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| エージェント | 要素 | 行動を行う主体(AIプレイヤー)。 |
| 環境 (Environment) | 要素 | エージェントが行動する世界(ゲーム画面、将棋盤など)。状態と報酬を返す。 |
| 報酬 (Reward) | 要素 | 行動の結果、環境から与えられるスコア。即時的な評価。 |
| 割引率 | パラメータ | 将来もらえる報酬を、現在どれくらいの価値として割り引いて評価するかを決める係数。0〜1の値。 |
| 探索と活用 (Exploration vs Exploitation) | 概念 | 未知の行動を試す「探索」と、既知の最善手を使う「活用」のバランスを取るジレンマ。ε-greedy法などで調整。 |
| マルコフ決定過程 (MDP) | 理論 | 次の状態と報酬が、現在の状態と行動だけで決まる(過去の履歴に関係しない)という確率モデル。強化学習の前提。 |
| 価値関数 | 概念 | ある状態(または行動)が、将来にわたってどれくらいの報酬をもたらすかの期待値。 |
| ベルマン方程式 | 理論 | 「現在の価値」と「次の状態の価値」の関係を表した再帰的な方程式。強化学習の理論的支柱。 |
| Q学習 (Q-Learning) | 手法 | 行動価値関数Q(s,a)を学習する手法。Qテーブルを更新していく。 |
| DQN (Deep Q-Network) | 手法 | Q関数をニューラルネットワークで近似した手法。Experience Replay(経験再生)などの工夫で学習を安定化。 |
| モンテカルロ木探索 (MCTS) | 手法 | プレイアウト(ランダムに終局まで打ってみる)を多数回行い、その勝率に基づいて最善手を探す探索手法。 |
| 方策勾配法 | 手法 | 価値関数を経由せず、方策(どんな行動をとるかの確率)を直接ニューラルネットで学習し、最適化する手法。 |
| A3C | 手法 | 複数のエージェントを並列に動かし、非同期にパラメータを更新する手法。学習が速く安定する。 |
| 逆強化学習 | 応用 | 熟練者(エキスパート)の行動データを見て、その人が「どんな報酬関数に基づいて動いているか」を推定する手法。自動運転の運転模倣などに利用。 |
| マルチエージェント強化学習 | 応用 | 複数のAIエージェントが、協力したり競争したりする環境での学習。 |
9. エッジAIと社会実装
AIを作って終わりではありません。それをどうやって実社会のデバイス(スマホ、車、カメラ)に搭載(デプロイ)するかが問われます。
9.1 エッジコンピューティングと軽量化
クラウドにデータを送ると遅延が発生し、プライバシーの問題もあります。そこで、現場の端末(エッジ)で推論を行うエッジAIが重要になります。
しかし、エッジ端末は計算能力が低いため、モデルの軽量化が必要です。
- 量子化: パラメータの精度を32bit(浮動小数点)から8bit(整数)などに落とし、サイズと計算量を激減させます。
- 蒸留(Distillation): 巨大な「先生モデル」の知識を、小さな「生徒モデル」に教え込むことで、性能を保ったまま小型化します。
- プルーニング(枝刈り): ニューラルネットの中で、あまり役に立っていない結合(重みが0に近いもの)を削除します。
第8章:エッジAI・実装 重要用語集(15語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| エッジコンピューティング | 実装 | 端末(エッジ)側でデータ処理を行う方式。低遅延、通信量削減、プライバシー保護のメリットがある。 |
| クラウドコンピューティング | 実装 | 巨大なサーバー群で集中処理を行う方式。大規模な計算が可能だが、通信が必要。 |
| 推論 (Inference) | フェーズ | 学習済みモデルを使って、実際のデータに対する予測を行うこと。学習フェーズに比べて計算負荷は軽い。 |
| モデル圧縮 | 技術 | 精度の低下を抑えつつ、モデルのサイズや計算量を減らす技術の総称。 |
| 量子化 (Quantization) | 軽量化 | 重みや演算の精度(ビット数)を落とすこと。FP32(32bit)からINT8(8bit)への変換が一般的。 |
| 蒸留 (Distillation) | 軽量化 | 大家モデル(教師)の出力確率分布を、小規模モデル(生徒)に模倣させることで、軽量かつ高性能なモデルを作る。 |
| プルーニング (枝刈り) | 軽量化 | ネットワーク内の重要度の低いニューロンや結合を削除し、スカスカ(スパース)にすることで計算を省く。 |
| FPGA | ハード | 製造後に回路構成を書き換えられる集積回路。特定のAIモデルに合わせて回路を最適化でき、省電力。 |
| ASIC | ハード | 特定用途向け集積回路。TPU(Google)など、AI処理専用に設計されたチップ。最高速だが設計変更できない。 |
| MobileNet | モデル | スマホなどのモバイル端末向けに設計された軽量CNN。「Depthwise Separable Convolution」を使用。 |
| SqueezeNet | モデル | AlexNetと同等の精度を維持しつつ、パラメータ数を50分の1以下にした軽量モデル。 |
| ONNX | フォーマット | PyTorchやTensorFlowなど、異なるフレームワーク間でのモデル互換性を保つための標準フォーマット。 |
| Docker | ツール | アプリケーションをコンテナ化するツール。AIの開発環境や実行環境を簡単に再現・配布できるため、実務で必須。 |
| MLOps | 概念 | 機械学習モデルの開発・運用・監視を統合し、継続的に価値を提供するための基盤や手法(DevOpsのAI版)。 |
| コンセプトドリフト | 課題 | 時間の経過とともに、入力データの傾向や正解の定義が変わってしまい、AIの精度が落ちる現象。再学習が必要。 |
10. AIの法律・倫理・ガバナンス(ELSI)
2024年以降、最も出題が増えているのがこの領域です。技術だけでなく、「使ってよいのか」「どう管理すべきか」が問われます。
10.1 著作権法とAI
日本の著作権法(第30条の4)は「世界で最もAI開発に優しい」と言われています。「情報解析」(AIの学習)目的であれば、営利・非営利を問わず、著作権者の許諾なく著作物を利用できます。ただし、「享受」目的(著作物をそのまま出力して楽しむ場合)は通常の著作権侵害になります。
10.2 プライバシーと個人情報保護法
個人情報保護法における「個人情報」の定義(特定の個人を識別できるもの)や、要配慮個人情報(病歴、信条など)の取り扱いは必須知識です。EUの**GDPR(一般データ保護規則)**は非常に厳格で、日本企業も対象になる可能性があるため、その概要(忘れられる権利など)を押さえる必要があります。
10.3 AI倫理と国際的なガイドライン
- ELSI: 倫理的(Ethical)、法的(Legal)、社会的(Social)課題の総称。
- バイアス: 学習データの偏りにより、AIが特定の人種や性別を差別する問題。
- 説明可能性(XAI): AIがなぜその判断をしたのかを人間が理解できるようにする技術(LIME、SHAPなど)。金融や医療ではブラックボックスAIは使えません。
- 広島AIプロセス: G7サミット(2023)で合意された生成AIに関する国際的なルール作り。開発者だけでなく、利用者も含めたすべてのステークホルダーへの指針が含まれます。
第9章:法律・倫理・ガバナンス 重要用語集(25語)
| 用語 | カテゴリ | 解説・試験対策ポイント |
| ELSI | 倫理 | Ethical, Legal and Social Issues。技術開発と並行して議論すべき倫理・法・社会的課題。 |
| AI社会原則 | 指針 | 日本政府が策定。「人間中心」「教育・リテラシー」「プライバシー確保」など7つの原則。 |
| 人間中心のAI | 概念 | AIはあくまで人間の幸福や尊厳のために使われるべきという基本的考え方。 |
| 説明可能性 (XAI) | 倫理 | Explainable AI。ブラックボックス化しやすいディープラーニングの判断根拠を可視化・説明する技術。 |
| LIME / SHAP | 技術 | XAIの代表的な手法。ある入力データの特徴量が、結果にどう寄与したかを算出する。 |
| フィルターバブル | 社会 | レコメンド機能により、自分が見たい情報ばかりが表示され、思想が偏ったり孤立したりする現象。 |
| エコーチェンバー | 社会 | SNSなどで同じ意見の人間同士が交流し、特定の信条が増幅・強化される閉鎖的な状況。 |
| アルゴリズムバイアス | 倫理 | 訓練データの偏りなどが原因で、AIが特定の人種、性別、属性に対して不当な差別的判断をする問題。 |
| 個人情報保護法 | 法律 | 個人情報の適正な取り扱いを定めた日本の法律。AI学習に個人データを使う場合は要注意。 |
| 要配慮個人情報 | 法律 | 人種、信条、社会的身分、病歴、犯罪歴など、不当な差別・偏見が生じうる特に慎重な扱いが必要な情報。原則、本人の同意が必要。 |
| 匿名加工情報 | 法律 | 特定の個人を識別できないように加工し、かつ復元できないようにした情報。本人の同意なく第三者提供が可能。 |
| GDPR | 法律 | EU一般データ保護規則。非常に厳格なプライバシー法。EU域外へのデータ持ち出し制限や、違反時の巨額制裁金が特徴。 |
| 忘れられる権利 | 権利 | GDPRで認められている、自分に関するデータの削除を管理者に求める権利。 |
| プロファイリング | 規制 | 個人の行動や嗜好を自動的に分析・予測すること。GDPRでは、これに基づく自動決定(融資否決など)への異議申し立て権がある。 |
| 著作権法30条の4 | 法律 | 「情報解析」目的であれば、原則として著作権者の許諾なく著作物を利用(学習)できる規定。ただし「著作権者の利益を不当に害する場合」は除く。 |
| 享受目的 | 法律 | 著作物の表現そのものを鑑賞・利用する目的。この場合は30条の4は適用されず、通常の著作権処理が必要。 |
| 依拠性 | 法律 | 著作権侵害の要件の一つ。既存の著作物を「知っていて(依拠して)」作ったかどうか。偶然似ただけなら侵害ではない。 |
| 類似性 | 法律 | 著作権侵害の要件の一つ。既存の著作物と表現上の本質的な特徴が似ているかどうか。 |
| 広島AIプロセス | 国際 | 2023年G7広島サミットで立ち上げられた、生成AIのガバナンスに関する国際的な枠組み。「開発者向け国際行動規範」などを策定。 |
| EU AI法 (EU AI Act) | 法律 | 世界初の包括的なAI規制法。AIをリスク別(禁止、高リスクなど)に分類し、厳格な義務を課す。 |
| アカウンタビリティ | 概念 | 説明責任。AIシステムが事故や差別を起こした際、誰がどのように責任を負い、説明するかという問題。 |
| トロッコ問題 | 倫理 | 自動運転の倫理的ジレンマとして引用される思考実験。「5人を助けるために1人を犠牲にすべきか」という問い。 |
| ポライトネス | 概念 | AIが人間と対話する際に、相手に不快感を与えないような配慮や丁寧さ。 |
| ディープフェイク | リスク | AIで生成された偽動画。名誉毀損や偽情報の拡散(インフォデミック)につながる。 |
| FAT | 概念 | Fairness(公平性)、Accountability(説明責任)、Transparency(透明性)。信頼できるAIの3要件。 |
11. まとめ:G検定合格への戦略
G検定の範囲は膨大ですが、闇雲に暗記するのではなく、「技術のつながり」と「なぜその技術が必要とされたのか(課題解決の歴史)」を意識することで、知識は体系化されます。
- 歴史と定義: ブームの盛衰と、各時代の代表的な技術(トイ・プロブレム→エキスパートシステム→ディープラーニング)を紐付ける。
- 手法の理解: 「CNNは画像、RNN/Transformerは時系列」という大枠に加え、それぞれの進化系(ResNetのスキップ結合、Attentionの重み付け)が「何を解決したのか」を理解する。
- 生成AIと倫理: 2024年以降の最重要トレンド。技術的な仕組み(拡散モデル、LLM)と、それに伴うリスク(著作権、バイアス、ハルシネーション)をセットで押さえる。
本報告書の表にまとめた225語は、試験における「頻出キーワード」の核となります。これらを理解し、関連する知識を広げていくことが、G検定合格、ひいてはAIジェネラリストとしての活躍への最短ルートとなるでしょう。

