生成AIパスポートミニ用語集(新シラバス対応)

生成AIパスポートミニ用語集(新シラバス対応) その他

出典:生成AIパスポート試験シラバス(2026年2月試験より適用) 

Contents
  1. 1章:AI基礎(AI(人工知能)
  2. 2章:生成AI・モデル(生成AI
  3. 3章:現在の生成AI動向(RAGAIエージェント
  4. 4章:情報リテラシー・権利・AI社会(個人情報保護知的財産権AI新法
  5. 5章:プロンプト・LLM運用(プロンプトエンジニアリング

1章:AI基礎(AI(人工知能))

AI(人工知能)

定義:人間の知的活動(認識・推論・学習など)を計算機で実現する技術領域。
出題ポイント:AI=自我や意識と誤解させる選択肢に注意(多くは特定タスク特化)。 Source

ダートマス会議

定義:1956年に「人工知能」という概念・研究分野が提唱された会議。
出題ポイント:AI誕生の起点として出る/「チューリングテスト」と混同注意。 Source

ルールベース

定義:IF-THENなど人間が作った規則で判断を行う方式。
出題ポイント:学習しない/例外・未知ケースに弱い、という対比が頻出。 Source

機械学習

定義:データからパターンを学び、予測・分類などを行う手法。
出題ポイント:ルールを人が書くのではなく、データから学ぶ点を問われる。 Source

学習済みモデル

定義:既に学習が完了していて、推論(予測/生成)に使えるモデル。
出題ポイント:学習(training)と推論(inference)を区別させるひっかけが多い。 Source

教師あり学習

定義:入力データと正解ラベルのペアで学習する。
出題ポイント:分類・回帰の定番/「ラベルがある=教師あり」。 Source

教師なし学習

定義:正解ラベルなしで構造や類似性を見つける学習。
出題ポイント:クラスタリング/次元削減とセットで問われやすい。 Source

クラスタリング

定義:似たデータを自動でグループ分けする手法。
出題ポイント:教師なし学習の代表/「分類(教師あり)」と混同注意。 Source

次元削減

定義:情報をなるべく保ったまま特徴量(次元)を減らす。
出題ポイント:可視化・計算負荷軽減/「特徴量を増やす」と逆なのでひっかけ注意。 Source

強化学習

定義:行動の結果として得る報酬を最大化するよう学習する。
出題ポイント:正解ラベルではなく報酬/「教師あり」との混同が定番。 Source

半教師あり学習

定義:少量のラベル付き+大量のラベルなしデータを組み合わせて学習する。
出題ポイント:「ラベルが少ない現実」を補う発想/教師なしと混同注意。 Source

ノーフリーランチ定理

定義:あらゆる問題に万能に最良な学習アルゴリズムは存在しない、という考え。
出題ポイント:“万能AIはない”の理論的背景として問われる。 Source

ニューラルネットワーク

定義:人工ニューロン(ノード)を結合して学習するモデル。
出題ポイント:「ディープラーニング=ニューラルネットの一種(多層)」の関係を整理。 Source

ディープラーニング(深層学習)

定義:多層のニューラルネットワークで特徴を階層的に学習する。
出題ポイント:機械学習の一分野/AI全体と同一視するひっかけ注意。 Source

重み(情報の重みづけ)

定義:ニューラルネットの結合の強さを表すパラメータ。
出題ポイント:「重み=学習で調整される値」/“ルール”と混同させる選択肢に注意。 Source

過学習(オーバーフィッティング)

定義:学習データに適合しすぎて未知データに弱くなる現象。
出題ポイント:精度が高い=良いとは限らないを問う。訓練/テストの差で判断。 Source

正則化

定義:モデルの複雑さを抑えて過学習を減らす工夫。
出題ポイント:過学習対策の代表として出る/「精度を上げる魔法」扱いの選択肢は×。 Source

ドロップアウト

定義:学習中に一部ノードをランダムに無効化して過学習を抑える。
出題ポイント:推論時は基本OFF(学習時のみ)というひっかけに注意。 Source

転移学習

定義:別タスクで学習済みのモデルを再利用して学習効率を上げる。
出題ポイント:学習データが少ない時に有効/「ゼロから学習」と対比で問われる。 Source

弱いAI(ANI)/強いAI(AGI)

定義:ANIは特定タスク特化、AGIは人間並みの汎用知能。
出題ポイント:現実の多くはANI/「ChatGPT=AGI」と言い切る選択肢は罠になりやすい。 Source

シンギュラリティ(技術的特異点)/2045年問題

定義:AIが自己改良し人間知能を超える転換点とされる仮説(2045年頃説)。
出題ポイント:確定した未来ではなく仮説/人物名(ヴィンジ、カーツワイル)絡みが出やすい。 Source

2章:生成AI・モデル(生成AI)

生成AI(ジェネレーティブAI)

定義:学習データの特徴をもとに文章・画像など新しいコンテンツを生成するAI。
出題ポイント:**識別(分類)と生成(作る)**を対比で問う。 Source

自己回帰モデル

定義:これまでの系列(例:前の単語列)から次を予測して生成するモデル。
出題ポイント:文章生成の基本枠組み/「一括生成」と誤解させる記述に注意。 Source

CNN(畳み込みニューラルネットワーク)/畳み込み

定義:局所特徴を抽出する畳み込み処理を用いるネットワーク。
出題ポイント:画像系の定番/「RNNと同じ」とする選択肢は誤り。 Source

VAE(変分自己符号化器)

定義:潜在空間を学習し、そこからサンプルしてデータ生成するモデル。
出題ポイント:エンコーダ/デコーダ、潜在ベクトルとセットで出やすい。 Source

GAN(敵対的生成ネットワーク)

定義:生成器と識別器を競わせてリアルなデータ生成を学ぶ。
出題ポイント:「2つのネットワーク」構造が鍵/“教師あり”と混同させる罠に注意。 Source

RNN/LSTM

定義:系列データを扱う再帰構造のネットワーク(LSTMは長期依存に強い改良)。
出題ポイント:Transformerとの比較で出る/「LSTM=Transformer」とするのは×。 Source

Transformer

定義:Attentionで系列内の関係を直接捉えるモデル(並列計算が得意)。
出題ポイント:RNN不要の転換点として頻出。位置エンコーディングとセット。 Source

Attention/Self-Attention

定義:入力のどこに注目すべきか重み付けする仕組み(Selfは入力内同士)。
出題ポイント:「注意=人間の意識」ではない/あくまで計算メカニズム。 Source

位置エンコーディング

定義:Transformerに単語の順序情報を与える仕組み。
出題ポイント:Transformerは順序を自然には持たない→ここで補う、が問われる。 Source

GPTモデル

定義:Transformer系の大規模言語モデルで、主に自己回帰的に文章生成する。
出題ポイント:BERTとの違い(生成志向 vs 理解志向)を匂わせる問題に注意。 Source

BERT/MLM/NSP

定義:BERTは双方向文脈を学ぶモデル、MLMは穴埋め学習、NSPは文のつながり判定。
出題ポイント:GPTのように次単語生成が主目的ではない点がひっかけ。 Source

RLHF/アライメント

定義:人の評価を報酬として応答を調整し、人間の意図に沿うよう整える考え方。
出題ポイント:RLHF=「人間が正解ラベルを全部与える」ではない。 Source

ファインチューニング

定義:事前学習済みモデルを特定用途データで追加学習し最適化する。
出題ポイント:転移学習との関係(転移の具体手段の一つ)を混同しない。 Source

ハルシネーション(Hallucination)

定義:もっともらしい誤情報を生成してしまう現象。
出題ポイント:“嘘をつく意図”ではなく確率的生成の副作用、が狙われる。 Source

マルチモーダル

定義:テキストに加えて画像・音声など複数種類の入出力を扱える性質。
出題ポイント:「マルチ=複数モデル」ではなく、複数モダリティ対応という点。 Source

主要サービス名(ChatGPT / Gemini / Claude / Copilot ほか)

定義:各社の生成AIサービス/モデル群の総称・機能名。
出題ポイント:“モデル名”と“機能名/製品名”が混ざる(例:GPTs、Code Interpreter、Image Generation等)ところを整理して問われる。 Source

3章:現在の生成AI動向(RAG、AIエージェント)

ディープフェイク(深層偽造)/偽情報(ディスインフォメーション)

定義:AIで本物そっくりの偽映像等を作る技術/意図的に誤らせる情報。
出題ポイント:フェイク=全部AIではない、の逆も出る(AIで高度化が論点)。 Source

RAG(検索拡張生成)

定義:外部文書を検索(取得)して根拠に基づき生成する仕組み。
出題ポイント:学習して覚えるのではなく、検索で参照するのが要点(ここを混同させる)。 Source

チャンク

定義:文書を検索しやすい単位に分割した断片。
出題ポイント:チャンクが大きすぎ/小さすぎ問題など“設計”の観点が出やすい。 Source

ベクタルデータベース

定義:埋め込み(ベクトル)で類似検索するためのDB。
出題ポイント:「全文検索DB」との違い(意味的類似)を狙う。 Source

AIエージェント

定義:目的達成のために計画し、ツールを使い、反復してタスク遂行するAI。
出題ポイント:“チャットで回答するだけ”との差(外部ツール利用・手順実行)が定番。 Source

MCPと外部連携

定義:外部ツールやシステムと連携して、エージェントが実作業できるようにする考え方/枠組み。
出題ポイント:MCP=モデル性能向上ではなく、連携・実行の拡張側の話として出やすい。 Source

4章:情報リテラシー・権利・AI社会(個人情報保護、知的財産権、AI新法)

フィッシング/スミッシング/ヴィッシング

定義:偽サイト誘導、SMS悪用、音声通話悪用による詐取手口。
出題ポイント:媒体の違いで並べて問う(SMS=スミッシング等)。 Source

ランサムウェア

定義:データを暗号化して身代金を要求するマルウェア。
出題ポイント:「ウイルス=全部ランサム」ではない/目的(恐喝)で判別。 Source

ソーシャルエンジニアリング(スピアフィッシング/ベイト等)

定義:人の心理や行動の隙を突く攻撃。
出題ポイント:「技術的攻撃ではない」点が重要(ここを逆に書く罠)。 Source

個人情報保護法/要配慮個人情報/匿名加工情報

定義:個人データ取扱のルール/特に慎重な情報/個人を識別できない形に加工した情報。
出題ポイント:匿名加工=“戻せない/識別できない”が前提、という理解を狙われる。 Source

マスキング

定義:一部を伏せ字・置換して情報露出を抑える方法。
出題ポイント:マスキング=匿名加工と同じではない(再識別可能性の扱いに注意)。 Source

知的財産権(著作権・特許権・商標権・意匠権)

定義:創作・発明・ブランド等を保護する権利の総称。
出題ポイント:何を守る権利か(文章=著作権、発明=特許…)の対応問題が多い。 Source

肖像権/パブリシティ権

定義:本人の容貌等を無断利用されない権利/著名人の経済的価値の権利。
出題ポイント:著作権ではないのに“画像だから著作権”と誤解させる罠がある。 Source

不正競争防止法/営業秘密/限定提供データ

定義:不正な競争行為を防ぐ法律/秘密管理された有用情報/限定的に提供するデータの保護。
出題ポイント:著作権と守備範囲が違う(企業情報・データ保護)点で問われる。 Source

AI社会原則(人間中心・安全性・公平性・透明性・アカウンタビリティ等)

定義:AIを社会で適切に使うための価値基準・原則。
出題ポイント:透明性=“全部公開”ではなく、説明可能性や責任の所在を問う文脈が多い。 Source

AIガバナンス/AIマネジメントシステム

定義:AIのリスク・責任・運用を管理する枠組み。
出題ポイント:ガバナンス=技術より運用・組織・プロセス。ここを逆にする選択肢に注意。 Source

AI Developer / AI Provider / AI Business User

定義:開発者/提供者/利用者(事業側)の役割区分。
出題ポイント:責任分界の問題で出る。誰が何を担うか(提供・開発・利用)を整理。 Source

AI新法(人工知能関連技術の研究開発及び活用の推進に関する法律)

定義:AIの研究開発・活用を推進し、リスクも踏まえた枠組みを扱う法律(シラバスに新規追加)。
出題ポイント:EUのAI Act等と混同させる問題に注意(**日本の“AI新法”**として問われる)。 Source

5章:プロンプト・LLM運用(プロンプトエンジニアリング)

LM/LLM

定義:LMは言語モデル一般、LLMは大規模データ・多数パラメータの言語モデル。
出題ポイント:LLM=ChatGPT“だけ”ではない/概念の大小関係を狙う。 Source

プロンプトエンジニアリング

定義:望ましい出力を得るために指示(プロンプト)を設計・改善する技術。
出題ポイント:モデルを再学習させることではない(ここ超ひっかけ)。 Source

Zero-shot/Few-shot

定義:例なしで指示する/少数例を与えて指示する。
出題ポイント:Few-shot=学習(training)ではない。あくまで入力内の例示。 Source

n-gramモデル

定義:直前n語など局所的な並びから次を予測する古典的言語モデル。
出題ポイント:LLM以前の基礎として出る/長距離文脈が苦手、が定番。 Source

プレトレーニング

定義:大量データで汎用的能力を身につける事前学習。
出題ポイント:ファインチューニングとの順序(先に事前学習)を問われる。 Source

ハイパーパラメータ/Temperature/Top-p

定義:学習や生成の挙動を決める設定値/出力のランダム性/確率上位累積で候補を絞る方法。
出題ポイント:Temperature高い=創造的だがブレやすい、のトレードオフがひっかけ定番。 Source

この記事を書いた人
香奈枝

年齢:66歳
趣味:猫好き!、料理、映画鑑賞、ハンドメイド、アニメ
PC歴は30年ぐらいWindows 95の頃から使ってます。HTMLやCSSを独学で学び、現在はストアカなどでWordPressの講師をしています。

香奈枝をフォローする
その他
シェアする
香奈枝をフォローする
タイトルとURLをコピーしました