なんとなく「AIに話すことって秘密だよね」って思ってたけど、実はそうでもないかも…って話を聞いて、ちょっとびっくりしちゃったんだよね😳
OpenAIのCEO、サム・アルトマンさんが言ってたんだけど、ChatGPTでの相談内容は完全にプライベートじゃない場合もあるんだって💡
ChatGPTは「秘密のカウンセラー」じゃない?
たとえば、もし将来、誰かがChatGPTとのやりとりをめぐる裁判を起こしたら、その会話内容が証拠として使われる可能性があるらしいの😮💨
つまり…
- 「AIに話したから大丈夫!」とは限らない
- 法的な場面では、あなたのチャット内容が公開されることもある
- もちろん普通に日常会話や雑談するぶんには問題ないけど、デリケートな話はちょっと気をつけたほうがいいかも?🥺
なんでこんなこと言うの?
アルトマンさんがこの話をしたのは、利用者のプライバシーは大事だけど、法律的には守りきれないケースもあるって現実を伝えたかったからみたい🌸
たとえば、AIを使った治療やカウンセリングみたいな場面で、もし訴訟になったらチャット履歴が調査対象になることもあり得るってことなんだよね🤔
じゃあどうすればいいの?
普段のちょっとした相談なら気にしなくていいと思うけど、
- 本当にプライベートな悩みや秘密は、AIだけに任せないほうが安心かも💭
- 大事なことはやっぱり、信頼できる人や専門家と直接話すのがベスト👀
- AIとの会話は「便利なツールの一つ」くらいに思っておくとラクかもね🎀
なんか昔の秘密がバレちゃうかも…って考えるとちょっとドキドキするけど、便利だからって何でも全部AIに話すのはちょっと注意が必要だなぁって思ったよ✨
みんなもChatGPTと話すときは、ちょっとだけ「あ、これ誰かに見られたら困るかも?」って考えてみてね💗
それだけで、安心して使える範囲が見えてくる気がするよ🫶
コメント
なんで大事な情報をクラウドのGPTに入れるのか理解できない。 仕事の書類も同じだよ。
「プライバシーには価値がある。 売ってるけどね」アルトマンはAIセラピーの法的保護を心配してるって言うけど、結局は自分の都合のいいことしか言ってないよ。
誰もそんな期待してなかったでしょ? わざわざ問題視するのが変だよ。
こうやってAI使ってて最高なんだ。 「愚かさの別の言い方教えて」「インディゴの色コードは?」「灰色の色コードは?」「これで何作れる?」みたいにね。
「セラピー」なんて呼ばないでほしい。
ChatGPTに聞いたらローカルのLLM使えって言われたよ。
彼は味方だよ、マジで。 プライバシーの法律も考え方も古すぎるって。 そのデジタル機器とそこに入れるデータは、自分の頭みたいなもんだからね。
もっとr/LocalLLaMAに参加してほしい。 今は普通のノートPCでも動くいいモデルがたくさんあるよ。
何年もスキャンダル無視して、今さら驚いてる人達ってダメだよね。 俺は個人情報はGPTに絶対入れないし、ローカルで動かしてるから心配なし。
ChatGPTで*セラピー*?! 何が問題になるっての?
ユーザー「気分が落ち込んだ、癒しの曲教えて」GPT「(M-A-S-Hのテーマ曲を流す)」エリザはこんな裏切りしなかったよ。
セラピー目的で使うのはバカだよ。
当たり前でしょ…。
自分のPCでローカルAI動かせばこの問題は丸ごと解決するよ。 OpenAIは個人データを集めて学習してるから、プライベートなことを任せるのは無理がある。 (ちなみに俺は個人情報収集が怖くてローカルAI作ってる)