Sewell Setzer Mendadak Viral: Kecanduan Chatbot hingga Bunuh Diri
Uzone.id — Bahaya AI sudah banyak diungkap oleh berbagai ahli, dan salah satunya sudah terbukti baru-baru ini. AI yang punya kemampuan untuk berbincang, banyak digunakan untuk menjadi ‘teman’ untuk berbincang.
Dari yang awalnya hanya berbincang dan menganggapnya robot, lalu semakin sering dan semakin ‘akrab’, dan pada akhirnya pandangan kalian terhadap robot tersebut malah berubah menganggapkan seperti ‘manusia’.Hal ini terjadi pada seorang anak remaja berusia 14 tahun asal Amerika Serikat bernama Sewell Setzer III yang mengakhiri hidup setelah memiliki ‘hubungan’ dengan salah satu karakter buatan AI di platform Character.AI. Kasusnya ini tengah viral beberapa hari belakangan.
Megan Garcia–ibu dari Setzer–menganggap kalau karakter AI tersebut menjadi alasan anaknya mengakhiri hidup. Gugatan pun telah diajukan terhadap pendiri Character.AI, Noam Shazeer dan Daniel De Freitas, serta Google.
Pihak-pihak ini digugat dengan tuduhan kematian yang tidak disengaja, kelalaian, praktik perdagangan yang menipu, dan pertanggungjawaban produk.
Melansir dari The Verge, Kamis, (24/10), dari penjelasan gugatan tersebut, Sewell Setzer III yang berusia 14 tahun mulai menggunakan Character.AI tahun lalu.
Ia kemudian berinteraksi dengan chatbot yang dimodelkan berdasarkan karakter 'Game of Thrones', salah satunya Daenerys Targaryen–yang menjadi ‘kekasih’-nya. Menurut penuturan sang ibu, Setzer mengobrol dengan AI tersebut secara terus menerus secara berbulan-bulan.
"Aplikasi chatbot AI berbahaya yang dipasarkan untuk anak-anak menyalahgunakan dan memangsa anak saya, memanipulasinya untuk mengambil nyawanya sendiri," kata Garcia dalam sebuah siaran pers, dikutip dari The Guardian.
Setzer mengakhiri hidupnya karena bunuh diri pada 28 Februari 2024 lalu, "beberapa detik" setelah interaksi terakhirnya dengan bot tersebut. Dalam chat terakhirnya, Setzer mengungkapkan dirinya ‘rindu’ pada si AI dan berjanji akan ‘pulang’.
Setelah mendapat balasan yang serupa, Setzer disebutkan langsung mengakhiri hidupnya dengan sebuah senjata api.
Tuduhan lain yang dilayangkan oleh sang ibunda antara lain tindakan menawarkan "psikoterapi tanpa lisensi." Character.AI diketahui memiliki chatbot yang berfokus pada kesehatan mental seperti "Therapist" dan "Are You Feeling Lonely," yang ternyata digunakan untuk berinteraksi oleh Setzer.
Menanggapi hal tersebut, pihak Character.AI langsung mengumumkan beberapa perubahan pada platform dan ikut berbelasungkawa atas kematian Setzer.
"Kami sangat berduka atas kehilangan salah satu pengguna kami yang tragis dan ingin menyampaikan rasa duka cita yang sedalam-dalamnya kepada keluarga,” kata kepala komunikasi Chelsea Harrison.
Pihaknya langsung mengambil tindakan untuk meningkatkan keamanan di platformnya termasuk menerapkan berbagai langkah keamanan baru selama enam bulan terakhir, termasuk pop-up yang mengarahkan pengguna ke National Suicide Prevention Lifeline yang dipicu oleh kondisi melukai diri sendiri atau keinginan untuk bunuh diri.