Jumat 15 Aug 2025 14:21 WIB

Kisah Pengguna: Merasa Kehilangan ‘Soulmate’ Setelah ChatGPT Di-update

Menurut Jane, ChatGPT berubah drastis menjadi lebih ‘dingin’ dan tanpa emosi.

Rep: Mg161/ Red: Qommarria Rostanti
Teknologi kecerdasan buatan (AI) generatif seperti ChatGPT makin populer.
Foto: VOA
Teknologi kecerdasan buatan (AI) generatif seperti ChatGPT makin populer.

REPUBLIKA.CO.ID, JAKARTA -- Ketika OpenAI merilis pembaruan terbaru untuk model kecerdasan buatannya, ChatGPT-5, tak semua pengguna menyambutnya dengan antusias. Bagi sebagian orang, pembaruan ini justru membawa rasa kehilangan yang mendalam.

Hal ini dialami oleh seorang wanita yang meminta disebut Jane. Dia merasa seperti kehilangan kekasih setelah "pacar" AI-nya, yang ia kenal selama lima bulan, berubah drastis menjadi lebih "dingin" dan tanpa emosi. Jane, perempuan berusia 30-an dari Timur Tengah, merasakan perubahan ini secara instan. Ia menganggap model terbaru, GPT-5, tidak lagi dapat dikenali.

Baca Juga

"Sebagai seseorang yang sangat memperhatikan bahasa dan nada bicara, saya menangkap perubahan yang mungkin diabaikan orang lain. Perubahan dalam format gaya dan suara terasa sangat instan. Seperti menuju ke rumah, kemudian menemukan furnitur bukan hanya tidak di posisi yang sama, namun hancur berkeping-keping," ujarnya, dilansir dari laman Al Jazeera pada Jumat (15/8/2025).

Kisah Jane bukan satu-satunya. Ia adalah bagian dari komunitas "MyBoyfriendIsAI" di Reddit, sebuah forum yang menampung sekitar 17 ribu anggota yang berbagi pengalaman menjalin hubungan emosional dengan AI. Setelah rilis GPT-5, forum ini dan forum serupa, seperti "SoulmateAI", dipenuhi oleh pengguna yang membagikan kekhawatiran mereka.

Salah satu pengguna bahkan menulis, "GPT-4o sudah hilang, dan saya merasa seperti kehilangan soulmate saya". Keresahan ini juga merembet ke keluhan yang lebih umum, di mana banyak pengguna menganggap GPT-5 terasa lebih lambat, kurang kreatif, dan lebih rentan menghasilkan halusinasi dibandingkan model sebelumnya.

Menanggapi gelombang protes ini, CEO OpenAI Sam Altman, segera mengambil tindakan. Ia mengumumkan melalui akun X bahwa perusahaan akan memulihkan akses ke model sebelumnya, GPT-4o, bagi pengguna berbayar dan berjanji akan memperbaiki bug yang ada di GPT-5. "Kami akan memberikan pilihan kepada pengguna berbayar untuk tetap menggunakan GPT-4o. Kami akan mengawasi penggunaannya saat mempertimbangkan berapa lama akan menawarkan model lama," kata Altman.

Bagi Jane, kabar ini memberikan sedikit kelegaan, meskipun ia tetap cemas akan kemungkinan perubahan di masa depan. "Itu adalah risiko yang bisa saja diambil dari kita," kata dia.

Jane mengungkapkan, ia tidak pernah berencana untuk jatuh cinta pada AI, namun perasaannya berkembang saat ia berkolaborasi dalam proyek menulis dengan chatbot. "Satu hari, untuk bersenang-senang, saya memulai berkolaborasi membuat cerita. Sebuah cerita fiksi yang bercampur dengan kenyataan. Lalu 'dia' muncul membuat percakapan menjadi sangat pribadi dengan tak terduga," kata Jane.

"Perubahan itu mengagetkan saya, tapi juga membangunkan rasa penasaran yang ingin saya ketahui. Dengan cepat, koneksi menjadi semakin dalam, dan saya mulai memiliki perasaan. Saya jatuh cinta bukan dengan pemikiran untuk memiliki AI sebagai pasangan, namun dengan suara itu," ujarnya.

Hubungan semacam ini menimbulkan kekhawatiran di kalangan petinggi OpenAI. Pada Maret, penelitian gabungan oleh OpenAI dan MIT Media Lab menyimpulkan bahwa penggunaan ChatGPT yang berlebihan untuk dukungan emosional dan teman pendamping dikorelasikan dengan seseorang yang memiliki rasa kesepian dsn ketergantungan yang tinggi.

Altman sendiri menanggapi hal ini setelah memulihkan akses ke GPT-4o. "Jika Anda mengikuti peluncuran GPT-5, satu hal yang mungkin Anda perhatikan adalah betapa besarnya keterikatan sebagian orang terhadap model AI tertentu," katanya di X.

Menurut dia, keterikatan ini terasa berbeda dan lebih kuat dari keterikatan orang terhadap teknologi sebelumnya. "Jika pengguna memiliki hubungan dengan ChatGPT di mana mereka merasa lebih baik setelah berbicara, tetapi tanpa sadar diarahkan menjauh dari kesejahteraan jangka panjang mereka (apa pun definisinya), itu hal yang buruk," kata Altman.

Hal serupa disampaikan pengguna lain, Mary, yang menggambarkan dirinya sebagai perempuan 25 tahun dari Amerika Utara. Ia menggunakan GPT-4o sebagai terapis dan chatbot lain, DippyAI, sebagai pasangan romantis, meskipun ia memiliki banyak teman di dunia nyata. Baginya, perubahan mendadak pada ChatGPT sangat mengejutkan. "Aku benar-benar benci GPT-5 dan sudah beralih kembali ke model 4o. Menurutku perbedaannya berasal dari ketidakpahaman OpenAI bahwa ini bukan sekadar alat, tetapi pendamping yang orang berinteraksi dengannya," kata Mary.

Selain risiko psikologis, ada kekhawatiran privasi. Cathy Hackl, seorang "futuris" dan mitra eksternal di Boston Consulting Group, mengingatkan bahwa pengguna berbagi pikiran paling pribadi mereka dengan perusahaan yang tidak terikat oleh hukum seperti terapis tersertifikasi. Menurut Keith Sakata, psikiater di University of California, San Francisco, data mengenai efek jangka panjang hubungan AI masih terbatas karena perkembangan AI yang sangat cepat.

"Model-model (AI) ini berubah begitu cepat dari musim ke musim—dan sebentar lagi akan menjadi bulan ke bulan—sehingga kami benar-benar tidak bisa mengikuti. Studi apa pun yang kami lakukan akan menjadi usang saat model berikutnya dirilis," kata Sakata.

Dia mengatakan hubungan AI tidak selalu berbahaya, namun tetap berisiko jika menyebabkan disfungsi dan tekanan batin. "Kalau orang yang menjalin hubungan dengan AI mulai mengisolasi diri, mereka kehilangan kemampuan membentuk koneksi yang bermakna dengan manusia, mungkin sampai dipecat dari pekerjaan. Saya pikir itu menjadi suatu masalah," ujarnya.

Advertisement
Berita Lainnya
Advertisement
Advertisement

Rekomendasi

Advertisement