☀️

“Tapi ChatGPT Bilang…”

Kamu dikirim ke sini karena kamu mengutip AI sebagai sumber untuk membuktikan sesuatu.

Respons untuk Chat AI seperti ChatGPT, Gemini, atau DeepSeek bukanlah fakta.

AI tuh cuma memprediksi kata apa yang paling besar kemungkinannya mengikuti kata sebelumnya.

AI bisa membuat informasi yang kelihatannya meyakinkan, tapi sebenarnya informasi yang tidak akurat atau tidak bisa diandalkan.

Bayangkan seseorang yang sudah membaca ribuan buku, tapi tidak ingat mereka membaca apa di buku mana.


Orang kayak begitu jago kalau ditanyai soal apa?


Orang kayak begitu jangan dimintai pendapat soal apa? (hal-hal faktual ataupun opini)


Ya tentu saja, kamu kemungkinan mendapat jawaban yang benar atau nasihat yang bagus… tapi orang seperti itu ketika menjawab, dia "mengingat" dari "buku" apa? Jawaban atau nasihatnya sebenarnya cuma kombinasi kata-kata yang paling tinggi frekuensinya, itu bukanlah fakta.

Jadi, jangan cuma kopipas (salin-tempel) sesuatu yang dikatakan oleh bot AI dan dikirimkan ke orang lain seakan-akan itu adalah kebenaran yang memiliki otoritas.

Ketika kamu melakukan itu (makanya kamu dikirim ke sini), kamu sebenarnya mengatakan: "ini adalah sekian ratus kata-kata yang biasanya muncul bersamaan membentuk kalimat."

Kadang tulisan hasil chat AI bisa membantu atau mencerahkan. Tapi itu bukanlah kebenaran, dan jelas bukanlah kata-kata final yang digunakan untuk memenangkan argumentasi. Begitu.

Bacaan lebih lanjut:

Kirimkan situs ini kepada orang yang baru saja bilang,
“Tapi ChatGPT Bilang...”

Saya sih suka Model Bahasa Besar. Saya juga suka Pemelajaran Mesin.
Saya cuma tidak suka melihat orang pintar berhenti menggunakan otak mereka.