配信日:2024年3月26日
こんにちは! DXメルマガ担当の谷橋 紗楽(たにはし さら)です。
皆さま、もうAIと話してみましたか?
谷橋は話題の「ChatGPT」と色々お話していますよ~。
でも、ちょっと困ったことが。
この前、谷橋はオススメの邦画を聞いてみたのですが・・・
「リング」: 日本のホラー映画の傑作として知られる作品。
原作は恐怖作家・詩織多恵によるホラー小説で……
「貞子」さんで有名な映画!でも、詩織多恵さんって聞いたことありますか?
実はそんな作家さんはいなくて、正しい原作者は鈴木光司さんという方です。
こんな風に、しれっと違うことを言ってくる!
今回は、「AI回答の正確性を上げたい!」をお届け!
ChatGPTは、言葉を使って人とコミュニケーションを取るAIです。
この技術の背景には、「GPT」と呼ばれる技術があります。
それは、大量のテキストデータを元に、「次にどんな言葉が来るかを確率的に予測して文章を生成する」もの。
「昔々」ときたら、「あるところに」と続く可能性が高い!と判断して、
「昔々あるところに……」と答えるということです。
つまり、ChatGPTは知性があるわけではなく、数学的な確率に基づいて言葉を繋げているんです。
でも、この技術にはちょっとした落とし穴があって、
それが「ハルシネーション(誤った情報の生成)」と呼ばれる現象です。
翻訳すると「幻覚」。
実際、ChatGPTはまるで幻覚を見ているかのように、
存在しない情報や、事実と異なることを平然と述べることがあります。
これは、ChatGPTが人類の転覆を狙って嘘をついている…わけではなく、
単に確率的な結果の一つとして出てきてしまうのです。
でも、安心してください。
このハルシネーションを避ける方法があります。
一つの方法は、ChatGPTに信頼できる情報を基にして文章を生成させることです。
検索拡張生成(RAG=らぐ)という技術で、AIが生成する回答の正確性が大きく向上します。
ビジネスでChatGPTを利用する場合、このRAGの技術で、その組織だけの情報を読み込ませて利用する例が多いです。
「自社に詳しい、専用のChatGPT」をつくるイメージです。
当社でもこのRAG構築のお手伝いができますので、興味がわいたら、気軽にご相談ください♪
「AI使って大丈夫なの?」という不安をお持ちの方は多いはず。
今日のお話が、そんな不安を解消する一助になれば嬉しいです。
ChatGPTは万能ではありません。
でも、そこで利用を諦めず、上手くつき合っていけたら、きっとすごく便利になります!
もしChatGPTのハルシネーションが話題になったら、
「ああ、あれね、確率の問題で起こるんだって」と、ちょっとした雑学として披露してみてください♪
「使わなきゃ損!生成AIまるわかりウェビナー」もオンデマンド配信中です。
ハルシネーションやRAGの話もありますので、ぜひご覧ください。
次回もお楽しみに!