ヤバいな。
このブログでは何度もChatGPTをイジってきたけど、情報についてはなかなか正解を出してこない。実際に前回もウソばっかりだということを証明した。
結局、どう学習したかによるしChatGPTはすぐ嘘をクリエイトするのでChatGPTが出した「情報」は検証が必要。それを司書に投げるのは使い方が間違っている。
図書館員時代からの友人が、 ChatGPTが吐いたウソ書籍情報を元に「この世に存在しない本に対するILL (図書館間相互貸借) 請求」が送られたケースについてFBに投稿していて、そういう「実害」もあるのか、とおもうなどする。実在しない本の非実在を証明するのは悪魔の証明みたいなものだからな……
— アサヒ光學 (@asa_hit) 2023年3月8日
まあそうですね。
結局どういう対応をしたのかはわかりませんけど、図書館横断検索等で見つかりませんでした、って突っぱねるしかないような…。 https://t.co/o0uNfdm80G
— りんど Lindberg1999 (@Lindberg1999) 2023年3月9日
一般人なら検索してヒットしなかったら終わりだけど、プロの場合は問いかけられたらどこまでやるかって話になるしな。
えー!!ついにそこまで来たのですね!
— 格闘系司書 (@librarian03) 2023年3月9日
「存在しない」と証明するのは、めちゃくちゃ大変ですからね、、、。
別件ですが、日曜日夜のTRPG楽しみにしています。
(´∀`)
うーん、『「〇〇を教えて」だけじゃない』っていうより「〇〇を教えて」に使うなって認識になっているんだが。誤学習しない分野なら使えるけど。
何事も、用法用量は守りましょう。