Welcome to 1to1(いとい)   Click to listen highlighted text! Welcome to 1to1(いとい)

AIによる認識について

AIモデルの動作原理に起因:AIは「膨大なデータから統計的なパターンを見つけ出す」ことは得意ですが、「物事を人間のように“理解”している」わけではない。

「知っていること」=「学習したデータ」の範囲内
 AIは、学習に使われたデータ(教科書)に書かれていることしか知りません。
知識の偏り(バイアス):学習データが偏っていれば、AIの「常識」も偏ります。例えば、インターネット上のテキストデータで学習すれば、ネット上によくある意見や、特定の文化圏の価値観を強く反映してしまいます。
未知の状況への弱さ:学習データに存在しない、まったく新しい概念や、前例のない状況(例:パンデミック初期の社会変化)に対応するのは苦手です。AIは過去のパターンから未来を予測するため、過去にないことは予測できません。
知識の鮮度:学習が完了した時点(例:2023年まで)のデータしか知らないモデルは、それ以降の新しい出来事(例:昨日のニュース)については何も知りません。
 例えとしてAIは「ものすごく記憶力の良い生徒」ですが、教科書(学習データ)に載っていないことは答えられませんし、教科書に間違いや偏見があれば、それもそのまま覚えてしまいます。

「理解」ではなく「統計的な予測」
 現在のAIの言語モデルは、「次に来る確率が最も高い単語」を予測するように訓練されています。
ハルシネーション:AIは「意味」や「事実」を理解しているわけではありません。それっぽく、文法的に正しく、前後の文脈に合いそうな単語を繋げているだけです。そのため、事実に基づかない情報(嘘)を、非常に自信満々に、もっともらしく生成してしまうことがあります。
ポチョムキン理解:表面的な文脈は理解できますが、その背後にある人間の意図、皮肉、ユーモア、暗黙の前提などを本当に理解するのは困難です。
 例えとしてAIは「非常に優秀な文章のモノマネ芸人」です。あらゆる文体や知識をマネできますが、自分が何を言っているのか、その内容が本当かどうかは分かっていません。

「常識」と「物理法則」の欠如
 私たちは「コップを逆さまにすれば水はこぼれる」「人間は壁を通り抜けられない」といった物理法則や暗黙の常識を経験から学んでいます。AIは、これらの常識をテキストデータ(「水がこぼれた」という記述)から統計的に学ぶしかありません。そのため、AIに物語やシミュレーションを作らせると、物理的にあり得ない描写や、常識から逸脱した奇妙な行動(例:フォークでスープを飲もうとする)を生み出すことがあります。

「なぜ?」に答えるのが難しい(ブラックボックス問題)
 複雑なAIモデル(特にディープラーニング)は、人間の脳の神経回路網を模した非常に複雑な計算を内部で行っています。AIが特定の答え(例:「この画像は猫だ」)を出したとしても、「なぜ、どの特徴を見てそう判断したのか」を人間が理解できる形で説明するのが非常に難しい場合があります。これは「ブラックボックス問題」と呼ばれ、医療診断や自動運転など、判断の根拠が重要となる分野での大きな課題です。
 例えばAIは「直感で答えを出す天才」に似ています。答えはよく当たるのですが、なぜその答えに至ったのか、合理的な説明ができないことがあるのです。

AIモデルは、データ内のパターンを見つけ、それを模倣・予測する「超高性能な統計ツール」です。しかし、人間のような「意識」「理解」「常識」「因果関係の把握」は持っていません。この「動作原理」の違いを理解することが、AIの能力を最大限に引き出し、同時にそのリスクを管理する上で非常に重要です。


手書き文字のデジタル化

写真(画像)をAIに渡す (OCR)
 OCR (Optical Character Recognition: 光学文字認識) 技術
  処理の流れ: 手書き文字(画像) → AIが「形」を解析 → テキストデータ
 なぜ正確か
  情報が直接的: AIは「文字そのものの形」という、デジタル化したい対象の情報を直接読み取ります。
  文脈判断: 最近のAI OCRは、単なる一文字の形でなく、前後の文字や単語(文脈)も考慮して、「この形は『橋』という漢字だろう」と高精度に推測します。
 昔のOCR(AIではない技術)
 初期のOCRは、AIとは「別の技術」でした。使われていたのは主に「パターンマッチング」という手法です。仕組みとして、あらかじめ「あ」はこの形、「い」はこの形、と文字の形(パターン)を辞書のように登録しておきます。これの限界は辞書に登録されたフォント(明朝体など)と全く同じ形でないと認識できませんでした。そのため、少しデザインが違うフォント、手書き文字、かすれたり傾いたりした文字は、まったく読み取れませんでした。
 現代のOCR(AI技術)
 現代のOCR、特に手書き文字や写真の中の文字を読み取れるものは、AI(マシンラーニングやディープラーニング)なしには成り立ちません。仕組みとして 、AI(ニューラルネットワーク)に、何百万、何億という膨大な文字サンプル(様々なフォント、手書きのくせ字、かすれた文字など)を学習させ特徴の抽出をさせ AIは、「”あ”という文字は、こういう曲線と、こういう交差で”だいたい”成り立っている」という本質的な特徴を学びます。さらにAIは、言語モデルを使い、「この文字は形だけだと”O”(オー)か”0″(ゼロ)か微妙だが、前後の文脈が『2 0 2 5年』だから”0″だろう」と文脈からも判断します。
 OCRという「目的(文字を読み取る)」は昔からありましたが、その目的を高い精度で達成するための「手段(エンジン)」が、AIに置き換わったのです。

実験:「手書きの読書感想文(縦型原稿用紙手書き)をAIに原文表記してもらうと・・
結果:原文をそのままコピーすることは出来なかった。
   感想文をAIなりの感想文に変更された。
追記:抽出した文字はかなりの精度で抽出されたが、それをそのまま出すと文章にならないと判断した結果、感想文の感想文という形になった。ソース元として感想文の題材書籍の検索はされていた。

発音し録音してAIに渡す (ASR)
ASR (Automatic Speech Recognition: 自動音声認識)
「人間が話した声(音声データ)」を「コンピューターで編集できる文字(テキストデータ)」に変換する技術。「音声認識」「スピーチ・トゥ・テキスト(Speech-to-Text)」とも呼ばれます。
 処理の流れ: 手書き文字 → 間が目で見て読む → 発音する(音声) → AIが「音」を解析 → テキストデータ
不正確になりやすい
 エラーの要因が複数ある: AIが処理を始める前に、「人間が読み上げる」というステップでエラーが入り込む余地が非常に多くなります。
  人間の読み間違い: そもそも手書き文字を人間が読み間違える(または判読できない)可能性があります。
  発音の曖昧さ: 読み上げる人の滑舌、方言、イントネーションによって、AIが音を正しく認識できないことがあります。
  録音ノイズ: マイクの性能や周囲の雑音も精度に影響します。
  最大の弱点:「同音異義語」:これが決定的な違いです。日本語には同音異義語が非常に多いため、音声にした時点で情報が失われてしまいます。
 例:手書きで「川の端で箸を持って橋を渡る」と書かれていたとします。ASR(音声)の場合、人間がこれを読み上げると、すべて「ハシ」という音になります。AIは「かわのハシでハシをもってハシをわたる」という音を聞いて、文脈から推測するしかありません。高確率で「川の橋で箸を持って橋を渡る」のように、どれか一つの漢字に間違って変換してしまうでしょう。OCR(写真)の場合は「端」「箸」「橋」という異なる「形」を認識するため、正しくテキスト化できる可能性が高いです。

ASRは、どうやって「声」を「文字」にしている?
 ASRの仕組みは、OCRが「形」を認識するのとは全く異なる、2段階のプロセスで成り立っています。
1.音響モデル(Acoustic Model)
「音」を「音の最小単位」に分解する
 AIはマイクから入ってきた音声を分析します。
 デジタル化: 音声(アナログ波形)を、コンピューターが扱えるデジタルデータに変換します。
 ノイズ除去: 周囲の雑音(エアコンの音、車の音など)を取り除きます。
 特徴抽出: 音声を0.01秒などの非常に短い単位に区切り、それぞれの音の特徴(周波数など)を分析します。
 音素の特定: その特徴から、「a」「k」「s」といった、「音素(おんそ)」(意味を持つ音の最小単位)を推測します。
 この段階では、AIはまだ「単語」や「意味」を理解していません。ただひたすら「今、どんな音が鳴ったか」を音響的に分析しています。
2.言語モデル(Language Model)
「音の羅列」を「意味の通る文章」に組み立てる
 音響モデルが「k, a, w, a, n, o, h, a, sh, i」という音素の並びを推測したとします。このままでは、ただの音の羅列です。ここで言語モデル(AI)が登場し、「日本語として、次に来る確率が最も高い単語は何か」を予測します。
・「kawa」は「川」だろう。
・「no」は「の」だろう。
・「hashi」は…?
   「川の」「川の」「川の
3つの可能性があります(同音異義語の壁)。もし、あなたが「川の端で魚を釣る」と続けて発言すれば、言語モデルは「”魚を釣る”という文脈なら、”橋”や”箸”より”端”の確率が高い」と判断し、「川の端」と正しく文字起こしします。このように、ASRは「音響の分析」「言語的な文脈予測」という2つのAIを組み合わせて、声を文字に変換しているのです。

なぜASRは難しいのか? (OCRとの違い)
 OCRが読み取る「文字の形」は、基本的には静止していて変わりません。しかし、ASRが扱う「声」は、非常に不安定で曖昧な情報です。
・人による違い( 声の高さ、話し方、滑舌、アクセント、方言(訛り)など)、人によって全く異なります。
・環境により カフェでの雑談、反響するホールでの講演、風の音が入る屋外など、ノイズの影響を強く受けます。
・話し方の曖昧さで「えーっと」「あのー」といった不要な言葉(フィラー)が入ったり、言いよどんだりします。
・同音異義語のように、音だけでは区別がつかない言葉が(特に日本語には)無数にあります。
 例外的なケースとして、書いた本人にしか読めないほど崩れた文字の場合。AIのOCRが何度試してもまったく認識できないような、極端な「くせ字」や「走り書き」の場合。このようなケースに限り、書いた本人が「(自分では読めるので)正しい内容を読み上げて録音」した方が、結果的に正確なテキストになる可能性はあります。
 ASR(自動音声認識)は、音響的な特徴と言語的な文脈の両方をAIで解析し、曖昧な「音声」を確定的な「テキスト」に変換する技術です。OCRが「目」のAIだとすれば、ASRは「耳」と「言語を理解する脳」を組み合わせたAIと言えます。

 


MWcをフォローする
Translate »
Click to listen highlighted text!