た
対話型AI(Conversational AI)
人と自然に会話できるよう設計されたAI。
ChatGPTやSiriのように、質問に答えたり雑談したりする機能を持つ。
タグ付け(Tagging)
データに意味づけや分類ラベルをつける作業。
AI学習の基礎であり、画像や文章に「これは〇〇」と印をつける工程。
多層パーセプトロン(Multilayer Perceptron / MLP)
複数の層を持つニューラルネットワークの基本形。
入力層・中間層・出力層で構成され、深層学習の原点となるモデル。
ち
知識グラフ(Knowledge Graph)
情報を「もの同士の関係」として表すデータ構造。
Google検索などで「関連情報」をつなげて表示する仕組みに使われる。
知識蒸留(Knowledge Distillation)
大きなAIモデルの知識を小さなモデルに移す技術。
軽量化してスマホなどでもAIを動かせるようにするための方法。
注意機構(Attention Mechanism)
AIが「重要な情報」に注目して処理する仕組み。
ChatGPTなどのトランスフォーマー構造の中核技術。
中間層(Hidden Layer)
ニューラルネットワークで、入力と出力の間にある層。
AIが「特徴」を抽出したり、複雑な関係を学習したりする場所。
調整パラメータ(Hyperparameter)
AIの学習前に設定する値。
学習率やバッチサイズなど、結果の精度や速度に影響する。
直接学習(Direct Learning)
データから直接パターンを学ぶAIの手法。
特徴量設計を人が行わず、AI自身が最適な特徴を見つける。
て
テキスト生成(Text Generation)
AIが自然な文章を作り出す技術。
ニュース記事の自動作成やチャット応答などに使われる。
転移学習(Transfer Learning)
既存のAIモデルを別の課題に応用する手法。
学習コストを減らし、少ないデータでも高精度な結果を得られる。
データクレンジング(Data Cleansing)
データの誤りや欠損を修正して整える作業。
AIの精度を高めるために欠かせない「前処理工程」。
データセット(Dataset)
AIの学習に使うデータの集まり。
訓練・検証・テスト用などに分けて活用される。
データドリフト(Data Drift)
時間の経過でデータの傾向が変化する現象。
AIの予測精度が落ちる原因になり、定期的な再学習が必要になる。
と
同期処理(Synchronous Processing)
処理を順番に実行する仕組み。
AIのリアルタイム処理では、非同期処理(Asynchronous)と比較される。
同定(Identification)
AIがシステムの動作モデルを推定する手法。
制御AIやロボット分野で、対象の特性を理解するために使われる。
特徴抽出(Feature Extraction)
データから重要な特徴を取り出す工程。
AIが複雑な情報を理解するための第一ステップとなる。
特徴量(Feature)
AIが学習に使うデータの性質や指標。
たとえば画像なら「色」「形」、文章なら「単語の出現頻度」など。
トランスフォーマー(Transformer)
Attentionを基盤としたAIモデル構造。
ChatGPTやBERTなど、近年の大規模言語モデルの中心技術。
トークナイザー(Tokenizer)
文章を単語や記号に分解するツール。
ChatGPTのようなAIでは、テキストをトークン単位で処理している。
そ
相関関係(Correlation)
2つのデータの間にどれくらい関係があるかを示す概念。
AIでは「どの特徴が結果に影響しているか」を判断する際に使われる。
損失関数(Loss Function)
AIが「どれだけ間違えているか」を数値化する関数。
学習では、この値を最小化するようにパラメータを調整する。
ソフトマックス関数(Softmax Function)
AIの出力を「確率」に変換する関数。
分類問題で、どのクラスに属する確率が高いかを求めるときに使われる。
ソースコード(Source Code)
AIやプログラムの中身を記述した人間が読める形のコード。
Pythonなどで書かれ、AIモデルの設計や挙動を定義する。
ソリューション(Solution)
AIを活用して問題を解決する仕組みやサービス。
企業が抱える課題に対して、AIを組み込んだ最適な提案を指す。