Para skeptis AI bukan satu-satunya yang memberi peringatan untuk tidak mengandalkan output model secara buta. Hal ini juga tercantum dalam syarat layanan dari perusahaan-perusahaan AI itu sendiri.
Misalnya, Microsoft saat ini sedang fokus untuk menarik perhatian pelanggan korporat agar menggunakan Copilot. Namun, mereka juga mendapat sorotan di media sosial terkait syarat penggunaan Copilot, yang sepertinya terakhir diperbarui pada 24 Oktober 2025.
“Copilot hanya untuk tujuan hiburan,” peringatan yang disampaikan oleh perusahaan tersebut. “Ia bisa membuat kesalahan dan mungkin tidak berfungsi seperti yang diharapkan. Jangan mengandalkan Copilot untuk nasihat yang penting. Gunakan Copilot dengan risiko Anda sendiri.”
Seorang juru bicara Microsoft mengatakan kepada PCMag bahwa perusahaan akan melakukan pembaruan terhadap apa yang mereka sebut sebagai “bahasa lama.”
“Seiring dengan perkembangan produk, bahasa itu tidak lagi mencerminkan bagaimana Copilot digunakan saat ini dan akan diubah pada pembaruan kami berikutnya,” ungkap juru bicara tersebut.
Tom’s Hardware mencatat bahwa Microsoft bukan satu-satunya perusahaan yang memakai jenis disclaimer ini untuk AI. Misalnya, OpenAI dan xAI juga memperingatkan pengguna agar tidak mengandalkan output mereka sebagai “kebenaran” (seperti yang dikatakan oleh xAI) atau sebagai “satu-satunya sumber kebenaran atau informasi faktual” (OpenAI).

