“Tapi ChatGPT Bilang…”
Respons untuk Chat AI seperti ChatGPT, Gemini, atau DeepSeek bukanlah fakta.
AI tuh cuma memprediksi kata apa yang paling besar kemungkinannya mengikuti kata sebelumnya.
AI bisa membuat informasi yang kelihatannya meyakinkan, tapi sebenarnya informasi yang tidak akurat atau tidak bisa diandalkan.
Bayangkan seseorang yang sudah membaca ribuan buku, tapi tidak ingat mereka membaca apa di buku mana.
Orang kayak begitu jago kalau ditanyai soal apa?
Orang kayak begitu jangan dimintai pendapat soal apa? (hal-hal faktual ataupun opini)
Ya tentu saja, kamu kemungkinan mendapat jawaban yang benar atau nasihat yang bagus… tapi orang seperti itu ketika menjawab, dia "mengingat" dari "buku" apa? Jawaban atau nasihatnya sebenarnya cuma kombinasi kata-kata yang paling tinggi frekuensinya, itu bukanlah fakta.
Jadi, jangan cuma kopipas (salin-tempel) sesuatu yang dikatakan oleh bot AI dan dikirimkan ke orang lain seakan-akan itu adalah kebenaran yang memiliki otoritas.
Ketika kamu melakukan itu (makanya kamu dikirim ke sini), kamu sebenarnya mengatakan: "ini adalah sekian ratus kata-kata yang biasanya muncul bersamaan membentuk kalimat."
Kadang tulisan hasil chat AI bisa membantu atau mencerahkan. Tapi itu bukanlah kebenaran, dan jelas bukanlah kata-kata final yang digunakan untuk memenangkan argumentasi. Begitu.
Bacaan lebih lanjut:
- OpenAI: Why language models hallucinate (OpenAI: Kenapa Model Bahasa AI Berhalusinasi)
- Oxford University: Large Language Models pose risk to science with false answers (Universitas Oxford: Model Bahasa Besar Berisiko Memberi Jawaban Salah)
- New York Times: A.I. Is Getting More Powerful, but Its Hallucinations Are Getting Worse (Archived Version) (Koran NY Times: AI Semakin Canggih, Tapi Juga Semakin Halu)
- MIT Media Lab: People Overtrust AI-Generated Medical Advice despite Low Accuracy (Orang Terlalu Percaya Nasihat Medis Buatan AI Walaupun Tidak Akurat)
- Business Insider: Why AI chatbots hallucinate, according to OpenAI researchers (Mengapa Chat AI Berhalusinasi)
- Reuters: AI 'hallucinations' in court papers spell trouble for lawyers (Halusinasi AI di Berkas Pengadilan Bencana Bagi Pengacara)
- MIT Technology Review: How AI is introducing errors into courtrooms (Bagaimana AI Menyebabkan Kesalahan di Ruang Pengadilan)
- Nature: AI chatbots are sycophants — researchers say it's harming science (Jurnal Nature: Chat AI Itu Penjilat — Peneliti Mengungkapkan AI Melukai Ilmu Pengetahuan)
- CNN: Parents of 16-year-old sue OpenAI, claiming ChatGPT advised on his suicide (Orangtua Anak 16 Tahun Menuntut Perusahaan OpenAI, Mengatakan ChatGPT Menasihati Anak Mereka Bundir)
- Financial Times: The 'hallucinations' that haunt AI: why chatbots struggle to tell the truth (Archived Version) (Halusinasi yang Menghantui AI: Mengapa Chat AI Kesulitan Mengatakan Kebenaran)
- The Guardian: 'Sycophantic' AI chatbots tell users what they want to hear, study shows (Chat AI 'Penjilat' Hanya Mengatakan Apa yang Ingin Didengar Oleh Pengguna)
- PCMag: Vibe Coding Fiasco: AI Agent Goes Rogue, Deletes Company's Entire Database (Kisruh Pemrograman: Gara-Gara AI Bermasalah, Basis Data Perusahaan Terhapus Semua)
Kirimkan situs ini kepada orang yang baru saja bilang,
“Tapi ChatGPT Bilang...”
Saya sih suka Model Bahasa Besar. Saya juga suka Pemelajaran Mesin.
Saya cuma tidak suka melihat orang pintar berhenti menggunakan otak mereka.
❤