【疑問】AIロボットはどこまでいったら人間になれるんや?【哲学】
231: 名無しさん 24/06/20(木) 22:03:55 ID:yNe1
>>211
自分の恣意で決めてるかどうかは誰が判断してくれるんや?
例えばワイが「自分の恣意で決めた」って言ったらそれは誰がどういった基準で判断してくれるんや?
対象がそう言ったからそうである、とするならばそれはAIが人間になれるってことでもあるんやないか
234: 名無しさん 24/06/20(木) 22:05:26 ID:v8wO
>>231
大事な観点やね
もし人間の思考がプログラムされているとしてその一行目に「すべての結果は自分の意思の結果だと思うこと」って書かれているとしたらどうなるかという話や
250: 名無しさん 24/06/20(木) 22:09:48 ID:yNe1
>>234
せやな
それはワイらとAIの区別なんて無くなるって事になるな
248: 名無しさん 24/06/20(木) 22:09:34 ID:2gjP
>>231
自由意志があるという感覚が広く人間にはあるんやが、
それが物理的にどういう現象かを解明しないと適切な定義もできないな
262: 名無しさん 24/06/20(木) 22:13:06 ID:yNe1
>>248
つまり意志を完全に自分の恣意で決めてるかどうかなんて分からんって事なんやな
269: 名無しさん 24/06/20(木) 22:14:27 ID:2gjP
>>262
いまのところはね
脳科学の発展があればわかると信じてるけど
224: 名無しさん 24/06/20(木) 22:02:30 ID:VI7I
AIが自分を人間だと思うようになったらそいつはもうAIやなくて人間や
この記事を評価して戻る