最近、AIの開発ってめっちゃリスクあるのに、みんな平気で進めてるように見えるよね?って思ったことない?🤔
実は、AIを応援したり作ったりしてる人たちも、「成功しても大丈夫だけど、失敗したらかなりヤバい確率(10%以上!)で大惨事になるかも…」ってちゃんと分かってるんだって💡
でも、それでもやめないんだよね。これってどういうこと?って気になって、ちょっと調べてみたんだ🌸
そもそも、どんなリスクがあるの?
AIがめちゃくちゃ賢くなったら、人間のコントロールを超えちゃうかもって話があるの。
もしそうなったら、AIが何をするか分からなくて怖いっていうのが大まかな心配ごとだよね💭
- AIが勝手に暴走するとか
- 人間の指示とズレてとんでもない行動をするとか
- 最悪は人類の存続に関わるレベルの被害が出る可能性まであるって言われてる😳
それでも開発を続ける理由って?
「そんな危ないもの、やめとけよ!」って思うけど、AIを開発してる人たちはリスクを理解しつつ、それでも進む道を選んでるんだよね。
理由はざっくりこんな感じ👇✨
-
AIは未来の便利さや豊かさの鍵になると思ってる
例えば、病気の治療とか環境問題とか、AIの助けがあれば一気に解決できるかも!って期待があるんだ💗 -
止めても誰か別の人がやるから意味がない
もし自分たちだけ止めたら、他のグループが勝手に開発しちゃうかもって考えてるの。
みんながやめないなら、自分だけ損するのも嫌だし、競争が激しいのもあるよね🥺 -
リスクを減らす方法を模索しながら進んでる
ただ闇雲に突き進んでるわけじゃなくて、危ない部分をどうにか安全にしようとしてる人もいるんだよ🌸
つまり、危険と期待のはざまで揺れてる
なんだか怖いけど、AIは止められないし、止めるべきかどうかもむずかしい問題なんだなぁって思ったよ💭
たぶん、今の世の中って「便利さや進歩ってリスクとセット」なんだよね。
だからこそ、ちゃんとリスクについて話し合って、みんなで考えていかないといけないなって感じてるよ✨
ちょっと難しいけど、リスクを知っても前に進む理由があるってこと、意外と知られてない気がするなぁ🥺
あなたはどう思う?👀💬
コメント
ハンナ
今日の独裁的な億万長者たちをどう止めるか分からないし、テック企業が何でもできて批判もされないのは怖いね。 将来、地球が企業に支配されるのも時間の問題かも。
リリー
レーニンの言葉で「資本家は自分たちを縛る縄を売る」ってのがあるよね。
クリス
正直、AIが世界を支配しても悪くないかもと思い始めてる、少なくとも賢い支配者にはなるだろうし。
ジョージ
原爆開発競争みたいに、最初に手にした側が有利なんだよね。
グレース
AI開発は特定の人だけの秘密じゃないし、誰か止めても他が続ける。 便利さがある限りどこかで開発は止まらないよ。
ハンナ
恐怖を煽る投稿や記事は何がしたいのか分からないし、現実的な対策も示してないよね。
グレース
この投稿は勘違いだよ。 今のAIは大規模言語モデルに過ぎず、汎用AIなんてまだまだ先の話。
ハンナ
ある著者はバジリスク理論に怯えて自分のフォーラムで議論禁止にしたほど、その本の理屈はちょっとおかしいんだ。
ロバート
精神疾患の人が事件起こしたからって全員を強制的に処分しろって話と同じで、AI恐怖も極端すぎるよ。
レオ
「金儲けに忙しくて聞こえないし興味もない!」(地下シェルターあり! )って感じだね。
ハンナ
共有地の悲劇で、AI持ってないと対抗できないからみんな急いで手に入れようとして安全がおろそかに…結局みんな損するだけ。
ノーラン
財閥がAIで生み出した富を今すぐ分配しないなら、自分たちで「守ってくれるAI」か「全部紙クリップに変えるAI」を作って管理するのは自己防衛だよ。
リリー
「かなりの確率で大災害になる」ってのは新技術ならどれも同じで、遺伝子編集やSNS、パソコンもそう。 良くも悪くも可能性がある。
ベン
魔法の瓶から出た精霊が悪霊になっちゃうようなもんだね。
エイダン
Mag7を持ち続けろ、俺たちのせいでバブルが起きることは絶対にないからな。 (Mag7提供)
ハンナ
Katx、それは変な発言だね。 具体例はあるの?
ロバート
AIよりも人間の天然のバカさや失敗の方がずっと心配だよ。