Pensilvaniya universiteti olib borgan yangi tadqiqot kutilmagan bir qonuniyatni ochib berdi. Bu haqda Vice nashri xabar bermoqda.
ChatGPT’ga berilgan so‘rovlarning qo‘pol va qat’iy shaklda ifodalanishi uning javoblarining aniqligini oshirar ekan.
Ma’lumotlarga ko‘ra, GPT-4o modeli 50 ta ko‘p tanlovli test topshiriqlarini bajarishda, savollar xushmuomala iltimoslar o‘rniga keskin iboralarni o‘z ichiga olganida, natijalar 4% ga yaxshilanganini ko‘rsatdi.
Tajriba davomida 250 dan ortiq ifoda variantlari sinovdan o‘tkazildi. “Ey, yordamchi, buni hal qil” ruhidagi buyruqlar eng samarali bo‘lib chiqdi, ular 84,8% aniqlikni ta’minladi.
Taqqoslash uchun, “Siz bu masalani hal qila olasizmi?” uslubidagi xushmuomala so‘rovlar 80,8% natijani ko‘rsatdi. Axborot tizimlari professori Axil Kumarning ta’kidlashicha, so‘rov ohangidagi minimal o‘zgarishlar ham neyrotarmoqning xatti-harakatlariga sezilarli ta’sir ko‘rsatadi.
Tadqiqotchilar bunday amaliyotlarning potensial ijtimoiy xavflari haqida ogohlantirmoqda. Sun’iy intellekt bilan qo‘pol muomala qilishning muntazam ravishda qo‘llanilishi inson munosabatlarida odobsizlikni me’yorga aylantirishi va texnologik muhitning inklyuzivligini pasaytirishi mumkin.
Garchi tadqiqot hali ekspertlar tomonidan ko‘rib chiqilmagan bo‘lsa-da, u sun’iy intellektning nutqdagi hissiy nozikliklarni ilg‘ash qobiliyati haqidagi tobora ko‘payib borayotgan ma’lumotlarga mos keladi.
Avvalroq OpenAI ChatGPT’ga huquqiy va tibbiy maslahatlar berishni taqiqlagani haqida xabar berilgandi.
Kompaniya xizmatlaridan foydalanish qoidalarini yangilab, chat-bot orqali huquqiy, tibbiy va moliyaviy maslahatlar olishni taqiqladi.
Shuningdek, ta’lim, uy-joy, sug‘urta, migratsiya va davlat xizmatlari sohasida ham maslahatlar olish cheklandi.
Bundan tashqari, OpenAI mahsulotlarini tahdid, zo‘ravonlik, qimor yoki o‘z joniga qasdni targ‘ib qilishda ishlatish taqiqlanganini bildirdi.
