「Photoshop は 35 年間も存在しています」というのは、生成 AI に関する懸念に反論するための一般的な返答です。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
TOPS:「1秒あたり兆演算」を意味するこの頭字語は、テクノロジーベンダーが自社のチップの AI 推論能力を自慢するために使用している用語です。
-
ニューラル プロセッシング ユニット (NPU):コンピューター、タブレット、スマートフォンに搭載され、デバイス上で AI 推論を実行できる専用プロセッサです (Apple では「ニューラル エンジン」という用語を使用しています)。NPU は、デバイス上で多くの AI を活用したタスク (ビデオ通話中に背景をぼかすなど) を CPU や GPU よりも効率的に実行できます。
-
Nvidia の H100 チップ: AI トレーニングに使用される最も人気のあるグラフィック プロセッシング ユニット (GPU) の 1 つです。H100 は他のサーバー グレードの AI チップよりも AI ワークロードの処理に最適であると考えられているため、企業はH100を求めています。しかし、Nvidia のチップに対する並外れた需要により、同社は世界で最も価値のある企業の1 つになりましたが、他の多くのテクノロジー企業が独自のAI チップを開発しており、Nvidia の市場支配力を蝕む可能性があります。
-
幻覚:これは、生成 AI ツールの精度はトレーニングに使用したデータによって決まるため、「幻覚」を起こす、つまり質問に対して最善と思われる回答を自信たっぷりに作り上げる可能性があるということです。これらの幻覚 (または、正直に言うと、でたらめ)は、システムが事実誤認を起こしたり、意味不明な回答を返したりする可能性があることを意味します。AI の幻覚が「修正」できるかどうかについては、議論さえあります。
バイアス:幻覚は、AI を扱う際に生じる唯一の問題ではありません。AI は結局のところ人間によってプログラムされているので、この問題は予測できたかもしれません。その結果、トレーニング データによっては、AI ツールがバイアスを示すことがあります。たとえば、顔認識ソフトウェアが肌の色の濃い女性の性別を識別しようとするとエラー率が高くなることを明らかにしました。
-
大規模言語モデル (LLM):自然言語テキストを処理および生成できる AI モデルの一種。Anthropic の Claude は、同社によれば「会話調の親切で誠実、そして無害なアシスタント」であり、LLM の一例です。
-
拡散モデル:テキストプロンプトから画像を生成するなどの用途に使用できる AI モデル。最初に画像にノイズ (静電気など) を追加し、次にそのプロセスを逆にすることでトレーニングされ、AI が鮮明な画像を作成する方法を学習します。オーディオやビデオで機能する拡散モデルもあります。
-
基礎モデル:これらの生成 AI モデルは膨大な量のデータでトレーニングされているため、タスク専用のトレーニングなしで、さまざまなアプリケーションの基盤となることができます。(この用語は、2021 年にスタンフォード大学の研究者によって造られました。) OpenAI の GPT、Google の Gemini、Meta の Llama、Anthropic の Claude はすべて基礎モデルの例です。多くの企業は、AI モデルをマルチモーダルとして販売しており、テキスト、画像、ビデオなど、複数の種類のデータを処理できることを意味します。
-
自然言語処理(NLP):機械学習により機械が人間の言語を理解する能力。OpenAI の ChatGPT は基本的な例で、テキストクエリを理解し、それに応じてテキストを生成できます。NLP を実行できるもう 1 つの強力なツールは、OpenAI のWhisper 音声認識技術です。同社はこの技術を使用して、100 万時間を超える YouTube 動画の音声を書き起こし、GPT-4 のトレーニングに役立てたと報告されています。
-
トークン:トークンとは、単語、単語の一部、または個々の文字などのテキストの塊を指します。たとえば、LLM はテキストをトークンに分割して分析し、トークン同士の関係を判断し、応答を生成します。モデルが一度に処理できるトークンの数が多いほど (「コンテキスト ウィンドウ」と呼ばれる量)、結果がより洗練されます。