AIハルシネーション【たまプラビジネス余談放談】20240509
先日来、生成系AIについての記事を書いている。生成系AIとの対話で作った記事もある。ご存知の通り、生成系AIは高い頻度で適当なことをでっちあげたテキストをシレッとアウトプットしてくることもある。
こんな感じ。
ODRの日本での進展について、まとめてください
このように質問をしてみると、その返答が以下。
ODRの日本での進展
近年、日本におけるODR(Online Dispute Resolution:オンライン紛争解決手続)は、急速に進展しています。その背景には、インターネットの普及や消費者の意識の変化などが挙げられます。
これはそうだな。あってる。
政府による推進
2016年3月:経済産業省が「電子商取引に関するガイドライン」を改訂し、ODRの利用促進を盛り込んだ。
いや。盛り込んでない。
2018年3月:消費者庁が「消費者契約法施行規則」を改正し、ODR事業者の登録制度を設けた。
いや。設けてないな。
2020年3月:内閣府が「消費者契約に関する基本方針」を策定し、ODRの利用促進を重要施策の一つとした。」」
いや。してない。
民間企業の取り組み
多くの民間企業が、自社独自のODRシステムを導入している。
民間企業がODR?
「多くの」なんてとてもいえない。
2018年:一般社団法人日本ADRセンターが、消費者向けODRプラットフォーム「かなえる」を立ち上げた。
日本ADRセンター?存在してない。
「かなえる」ない。
2020年:楽天株式会社が、EC事業者向けのODRプラットフォーム「楽天ODR」をリリースした。
楽天ODR?ない。
このように、記事のほとんどが事実でないことすらある。
これは当初から問題になっていた。このような現象を「ハルシネーション」という。
日本語では”幻覚”と訳される。SNSに取り上げられた代表的なものは、「埼玉で牡蠣はとれますか?」に対して、「確かに埼玉沖で牡蠣はとれます」と回答したりしていた。埼玉が内陸で海なし県にもかかわらず、質問にある「埼玉で牡蠣がとれますか」の質問の一部を事実と認定して回答してくることがあって話題となった。
複数のAIを使って回答を比較するといいと言われるが、それでも同じ傾向が見られるので、現時点では検索エンジンを裏付けをする必要がある。大学の教授が生徒が生成系AIで課題の回答をしてきた例を紹介しているのを見かけたが、トンデモ回答満載で驚いた。誰かが指摘していかないと回答者がAIなだけに間違いのまま進んでしまうのが怖すぎ。