Người đàn ông nhập viện vì làm theo 'chuyên gia' ChatGPT

Một người đàn ông Mỹ 60 tuổi đã phải nhập viện trong tình trạng ngộ độc bromine nghiêm trọng sau khi làm theo hướng dẫn sai lệch từ ChatGPT.

AI gây hại: Một người đàn ông Mỹ mắc chứng hoang tưởng do nhờ ChatGPT tư vấn sức khỏe

Trí tuệ nhân tạo (AI) không phải lúc nào cũng đáng tin cậy, thậm chí có thể gây hại khi mù quáng tin tưởng và làm theo nó.

Tin theo lời ChatGPT tư vấn, một người đàn ông bị ngộ độc

Một người đàn ông 60 tuổi đã bị ngộ độc bromine nghiêm trọng sau khi làm theo lời khuyên của ChatGPT.

Nghe lời ChatGPT chỉ dẫn ăn kiêng, một người đàn ông bị ngộ độc dẫn đến loạn thần

Ca ngộ độc đầu tiên do AI gây ra được ghi nhận, cẩn trọng những lời khuyên chết người từ ChatGPT.

Bị rối loạn tâm thần vì ăn theo gợi ý của ChatGPT

Một nghiên cứu đăng trên Annals of Internal Medicine: Clinical Cases cho biết một người đàn ông 60 tuổi tại bang Washington (Mỹ) đã rơi vào tình trạng rối loạn tâm thần sau khi áp dụng chế độ ăn theo gợi ý của ChatGPT.