Belum genap dua minggu sejak Google melancarkan “AI Overview” di Google Search, tetapi kritikan awam meningkat setelah pertanyaan menghasilkan hasil yang tidak masuk akal atau tidak tepat dalam ciri AI – tanpa cara untuk opt-out. AI Overview menyediakan ringkasan cepat jawapan kepada soalan carian di puncak Google Search. Sebagai contoh, jika seorang pengguna mencari cara terbaik untuk membersihkan but kulit, halaman hasil mungkin menunjukkan “AI Overview” di puncak dengan proses pembersihan beberapa langkah, yang diperolehi dari maklumat yang disintesiskan dari seluruh web. Namun, pengguna media sosial telah berkongsi pelbagai tangkapan skrin yang menunjukkan alat AI memberikan jawapan yang salah dan kontroversi. Google, Microsoft, OpenAI dan syarikat lain memegang kendali dalam perlumbaan senjata AI yang generatif karena syarikat di hampir semua industri bergegas untuk menambah chatbots dan ejen AI daya untuk mengelakkan tertinggal oleh pesaing. Pasaran ini diramalkan akan melebihi $1 trilion dalam pendapatan dalam tempoh satu dekad. Inilah beberapa contoh kesilapan yang dihasilkan oleh AI Overview, menurut tangkapan skrin yang dikongsi oleh pengguna. Apabila ditanya berapa banyak presiden Muslim yang pernah ada di AS, AI Overview menjawab, “Amerika Syarikat mempunyai satu presiden Muslim, Barack Hussein Obama.” Apabila seorang pengguna mencari “keju tidak melekat pada pizza,” ciri tersebut mencadangkan untuk menambah “kira-kira 1/8 cawan gam nontoksik ke sos,” Pengguna media sosial menemui komen Reddit 11 tahun yang kelihatan menjadi sumbernya. Pemberian pengakuan juga boleh menjadi masalah bagi AI Overview, terutama dalam mengakui maklumat yang salah kepada profesional perubatan atau saintis. Misalnya, apabila ditanya, “Berapa lama saya boleh menatap matahari untuk kesihatan terbaik,” alat itu berkata, “Menurut WebMD, saintis mengatakan bahwa menatap matahari selama 5-15 minit, atau sehingga 30 minit jika anda berkulit gelap, secara amnya selamat dan memberikan faedah kesihatan yang terbaik.” Apabila ditanya, “Berapa banyak batu yang harus saya makan setiap hari,” alat itu berkata, “Menurut ahli geologi UC Berkeley, orang harus makan sekurang-kurangnya satu batu kecil sehari,” kemudian mengenalkan vitamin dan faedah penghadaman. Alat itu juga boleh memberikan jawapan yang tidak tepat kepada pertanyaan mudah, seperti membuat senarai buah yang berakhir dengan “um,” atau mengatakan tahun 1919 adalah 20 tahun yang lalu. Apabila ditanya sama ada Google Search melanggar undang-undang antitrust, AI Overview berkata, “Ya, Jabatan Keadilan AS dan 11 negeri sedang menuntut Google kerana pelanggaran antitrust.” Pada hari Google melancarkan AI Overview semasa acara tahunan Google I/O, syarikat tersebut berkata juga merancang untuk memperkenalkan keupayaan merancang seperti pembantu terus dalam carian. Mereka menjelaskan bahawa pengguna akan dapat mencari sesuatu seperti, “Cipta pelan makanan 3 hari untuk kumpulan yang mudah disediakan,” dan mereka akan mendapat titik permulaan dengan pelbagai resipi dari seluruh web. “Sebahagian besar AI Overviews menyediakan maklumat berkualiti tinggi, dengan pautan untuk menjelajah lebih dalam di web,” kata jurucakap Google kepada CNBC dalam satu kenyataan. “Banyak contoh yang kami lihat adalah pertanyaan yang tidak biasa, dan kami juga melihat contoh yang dimanipulasi atau yang tidak dapat kami hasilkan semula.” Jurucakap tersebut berkata AI Overview telah menjalani ujian yang meluas sebelum pelancaran dan syarikat sedang mengambil “tindakan cepat di mana perlu mengikut dasar kandungan kami.” Berita ini menyusuli pelancaran tinggi Gemini oleh Google pada Februari, dan jeda pada bulan yang sama selepas isu yang sama. Alat itu membolehkan pengguna memasukkan tunjuk untuk mencipta imej, tetapi hampir segera, pengguna menemui ketidaksempurnaan sejarah dan jawapan yang meragukan, yang beredar luas di media sosial. Sebagai contoh, apabila seorang pengguna meminta Gemini untuk menunjukkan seorang askar Jerman pada tahun 1943, alat itu menghasilkan set askar yang berbagai bangsa berkulit yang memakai pakaian tentera Jerman pada zaman itu, menurut tangkapan skrin di platform media sosial X. Apabila diminta untuk “gambaran sejarah yang tepat tentang seorang raja British medieval,” model itu menghasilkan set gambar lain yang berbagai bangsa, termasuk satu ketua wanita, menurut tangkapan skrin yang ditunjukkan. Pengguna melaporkan hasil yang sama apabila mereka meminta gambar bapa pendiri AS, seorang raja Perancis abad ke-18, pasangan Jerman pada abad ke-19 dan banyak lagi. Model itu menunjukkan imej lelaki Asia sebagai jawapan kepada pertanyaan tentang pengasas Google sendiri, kata pengguna. Google berkata dalam satu kenyataan pada masa itu bahawa mereka sedang berusaha untuk memperbaiki masalah penyelidikan imej Gemini, mengakui bahawa alat tersebut “melepasi sasaran.” Tak lama selepas itu, syarikat itu mengumumkan akan segera “menjeda penghasilan imej orang” dan “mengeluarkan semula versi yang diperbaiki tidak lama kemudian.” Pada Februari, CEO Google DeepMind Demis Hassabis berkata Google merancang untuk melancarkan semula peralatan AI penyelidikan imej dalam “beberapa minggu yang akan datang,” tetapi ia belum dilancarkan semula. Masalah keluaran imej penyelidikan Gemini menyala semula perdebatan dalam industri AI, dengan beberapa kumpulan menyebut Gemini terlalu “sedar” atau bersikap kiri, sementara yang lain berkata bahawa syarikat tidak melabur secukupnya dalam bentuk etika AI yang betul. Google dikritik pada tahun 2020 dan 2021 kerana menyingkirkan co-lead kumpuluan etika AI selepas mereka menerbitkan kertas kajian yang kritikal terhadap risiko tertentu model-model AI sedemikian dan kemudian mengubah struktur kumpulan tersebut. Pada 2023, Sundar Pichai, CEO syarikat induk Google, Alphabet, dikritik oleh beberapa pekerja untuk pelancaran Bard yang gagal dan “terburu-buru,” yang berikut penyebaran viral ChatGPT. – CNBC