ChatGPTやBardは、それぞれ独自のLLM(大規模言語モデル)を利用していますが、大量のデータを事前学習したAI、いわゆる基盤モデルの開発には二つの流れがあるということです。
一つ目は、既存のLLMを最大限に活用する試みで、これにはAIの誤答防止策や再学習の手法、プロンプトと呼ばれる入力操作の工夫などが含まれます。LLMの可能性がまだ十分に活かされていないと、生成AIのフル活用に向けた取り組みを続けています。 二つ目は、基盤モデルの能力を改良し高める試みで、その目標はテキストだけでなく画像、音声、動画なども扱えるマルチモーダル型の基盤モデルの開発です。これは「汎用AI」、つまり人間以上の能力で各種課題を解決できるAIへの道筋とされています。 今のLLMは大量のデータからルールを発見する帰納的なアプローチを得意とする半面、演繹(えんえき)的な推論や、科学研究などで用いられる仮説推論(アブダクション)は苦手とされています。仮説推論(アブダクション)ができるAIがいつ登場するか次の飛躍の鍵かもしれません。 また、ChatGPTやBardは、英語情報を大量に事前に学習したモデルであり、日本人にとっては情報が十分とは言えません。日の丸LLMを目指して、富士通・NTT・サイバーなどが研究開発を加速させていますが、これらの成果も楽しみです。 生成AI、研究開発にメリハリを 基盤モデルの高度化焦点 2023年6月25日 https://www.nikkei.com/article/DGXZQOCD191HJ0Z10C23A6000000/ 日の丸LLMへの号砲、富士通・NTT・サイバーなどが加速する研究開発競争の勝者は 2023.06.26 https://xtech.nikkei.com/atcl/nxt/column/18/02504/062200001/?n_cid=nbpnxt_mled_itmh
0 Comments
Leave a Reply. |
著者萬秀憲 アーカイブ
December 2024
カテゴリー |