Google kompaniyasi The Guardian nashrining tekshiruvidan so‘ng sun’iy intellekt tomonidan yaratilgan javoblarning (AI Overviews) bir qismini o‘chirib tashladi.
Tekshiruv natijasida ushbu javoblarda tibbiy ma’lumotlarga oid xatolar mavjudligi aniqlangan.
Tergovda tahlil qilingan eng xavfli misollardan biri “jigar uchun qon tahlillarining normal ko‘rsatkichlari qanday” degan so‘rovga berilgan noaniq ma’lumot edi.
Sun’iy intellekt foydalanuvchilarga faqat raqamlar to‘plamini taqdim etdi, bunda kontekst hamda yosh, jins, millat va boshqa individual omillarni hisobga olmadi.
Natijada, Google jigar salomatligi, saraton va ruhiy salomatlik kabi bir qator tibbiy so‘rovlar uchun qisqacha sun’iy intellekt xulosalari funksiyasini o‘chirib qo‘ydi.
Biroq, muammo to‘liq hal etilmadi: “LFT testi me’yoriy ko‘rsatkichlari” kabi o‘xshash ma’noli so‘rovlar kiritilganda, xulosalar yana paydo bo‘lishi mumkin.
“Biz qidiruvda alohida o‘chirish holatlariga sharh bermaymiz. Sun’iy intellekt xulosalarida ma’lum kontekst yetishmagan hollarda, biz keng qamrovli takomillashtirishlar ustida ishlamoqdamiz, shuningdek, o‘z siyosatimizga muvofiq tegishli choralarni ko‘rmoqdamiz”, — deyiladi kompaniya vakili rasmiy izohida.
Bu voqea AI Overviews bilan bog‘liq ilk muammo emas, biroq eng jiddiylari qatoriga kiradi. U zamonaviy til modellarining qidiruvdagi asosiy zaifligini yaqqol namoyon etadi: ular, ayniqsa ixtisoslashgan sohalarda, ma’lumotning aniqligini va xavfsizligini ta’minlashga emas, balki izchil matn yaratishga moslashtirilgan.
Tizim internetda topilgan ma’lumotlarni to‘g‘ri qayta ifodalashga qodir, ammo ularning klinik ishonchliligini yoki muayyan holatga qo‘llanilishini baholay olmaydi.
Avvalroq Kaliforniyada sun’iy intellektli bolalar o‘yinchoqlarini taqiqlash taklif qilingani haqida xabar berilgandi.
Taqiq to‘rt yilgacha amal qilishi taklif qilingan bo‘lib, bu regulyatorlarga SI bilan o‘zaro aloqada bo‘lgan bolalarning xavfsizligini ta’minlaydigan qoidalarni ishlab chiqish uchun vaqt berishga qaratilgan.
