Microsoft mengatakan mulai implementasikan batasan percakapan yang bisa dilakukan chatbot AI Bing.
Ini diputuskan beberapa hari setelah chatbot beberapa kali ke luar dari rel percakapan dengan penggunanya.
Gantinya, chatbot AI Bing akan dibatasi maksimal 50 pertanyaan per hari dan lima pertanyaan per sesi.
Harapannya, dengan begitu mesin pencari ini tidak lagi terulang menghina pengguna, membohonginya, dan memanipulasi pengguna secara emosional seperti yang pernah dilakukan sebelumnya.
Bertemu Bill Gates, Xi Jinping Ingin Persahabatan AS-China Terus Berlanjut “Data kami telah menunjukkan kalau kebanyakan orang-orang sudah menemukan jawaban yang dicari dalam lima pertanyaan, dan hanya satu persen sesi percakapan yang bisa sampai lebih dari 50 pesan,” kata tim Bing dalam pos di blog.
Jika pengguna telah sampai batasan 5 pertanyaan per sesi, Bing akan merekomendasikan kepadanya untuk memulai topik baru, demi menghindarkan dari sesi chat yang hanya bolak balik maju-mundur.
Microsoft telah memperingatkan sebelumnya bahwa sesi chat yang lebih panjang, dengan 15 atau lebih pertanyaan, bisa membuat Bing, menjadi repetitif.
Atau, “Menjadi terdorong atau terprovokasi untuk memberikan respons yang malah tidak membantu atau tidak sejalan dengan tone yang kami desain.” Sony Mulai Uji Cloud Streaming Game PS5 Menghentikan percakapan setelah lima pertanyaan, menurut Microsoft, “membuat model tidak bingung.” Microsoft menyatakan masih bekerja untuk memperbaiki kecederungan Bing.
Tapi tidak jelas berapa lama pembatasan percakapan berlaku.
“Seiring kami terus mengumpulkan feedback, kami akan mengeksplorasi memperluas batasan pada sesi percakapan,” bunyi pengumuman Microsoft.
THE VERGE Pilihan Editor: Amerika Uji Terbang dan Dogfight Jet Tempur yang Dipiloti AI