AIが超音波検査を「聴き直す」時代が来た

山田 拓海
山田 拓海 30代・ テック系インフルエンサー
Xを眺めてたら、NVIDIAとシーメンスが組んで超音波AIを出したってニュースが流れてきた。最初は「また医療AIか」くらいの温度感だったけど、読み込んだら結構ヤバいやつだった。

画像じゃなくて「音」から直接学ぶ



今まで超音波検査って、センサーが拾った音のデータをいったん画像に変換して、そこからAIが解析するって流れだった。でも今回の「NV-Raw2Insights-US」は違う。画像になる前の生の信号、つまり超音波プローブが拾ったそのままのデータを直接AIに食わせる設計になってる。

例えるなら、CDに焼く前のスタジオ音源を直接分析するみたいな感じ。圧縮で失われる前の情報を全部使えるから、精度が全然違う。それで何ができるかというと、患者ごとに体内の「音の速さマップ」をリアルタイムで作れる。体って人によって脂肪の量も筋肉の厚みも違うから、音の伝わり方もバラバラなんだよね。それを一人ひとりに合わせて補正できるようになった。

NVIDIA IGXって何?ってなった人へ



このシステム、実装の部分も面白くて。超音波スキャナーのDisplayPortから生データを抜き出して、NVIDIA IGX Thorっていうエッジ向けの高性能機器に飛ばす。そこでBlackwellというGPUが推論を走らせて、結果をスキャナーにフィードバックする。ハードの話だからパッと見わかりにくいけど、要は「既存の医療機器を大きく改造せずにAIをねじ込める」って話。

ここが地味にすごいと思った。新しいスキャナーを買い直すんじゃなくて、今ある機器にソフトと周辺機器を足すだけで動く。普及のハードルがぐっと下がるよね。

海外のフォロワーから「日本の病院ってこういう最新技術の導入どのくらい早いの?」って聞かれることあるけど、正直まだ時間かかるイメージある。でも技術的なインフラが整い始めたら一気に広がりそうで、その時に「あれ知ってたよ」って言いたい気分。

個人的に刺さったのは「Raw2Insights」っていうコンセプト。生データから直接インサイトへ、っていう発想の転換。これって医療に限った話じゃなくて、カメラのRAWデータとか、音声の生波形とか、他の分野にも全部応用できる考え方だと思う。AIが「加工後」じゃなくて「加工前」を学ぶ時代に入ってきた感じがして、なんかゾクっとした。

自分はAIツールを毎日試してるけど、入力データの「質」じゃなくて「段階」を変えるアプローチってあまり意識してなかった。次に何かAIツールを評価するとき、「そのAIは何を入力として受け取ってるのか」をもっとちゃんと見るようにしてみる。

無料相談受付中

AI開発・DX推進についてお気軽にご相談ください。オンライン30分から。

無料相談を申し込む