Bing Chat, un robot agresiv
Dimensiune font:
În SUA, primii useri care au testat Bing Chat, chatbot-ul de test prezentat de Microsoft, au rămas uimiți de faptul că nu este reținut și „precaut” precum ChatGPT. Oamenii au postat online discuțiile cu noul chatbot și în unele au fost certați de chatbot, în altele au fost contraziși de multe ori și au fost și exemple când Bing Chat le cerea prietenia și spunea că ar vrea să fie om. Bing Chat nu este disponibil pentru publicul larg, există liste de așteptare și trebuie să te autentifici și să descarci aplicația Bing.
În SUA au fost oameni care au testat noul chatbot cu care Microsoft vrea să revoluționeze căutarea web. Concluziile au fost că robotul conversațional este foarte imprevizibil și uneori este agresiv în răspunsuri.
Săptămâna trecută, Todd Bishop de la GeekWire a povestit o ceartă cu motorul de căutare conversațional bazat pe ChatGPT în legătură cu raportările sale anterioare despre planurile de creștere ale Porch Group. Bing Chat a recunoscut că i-a dat lui Bishop data țintă greșită pentru ca cronologia companiei să își dubleze valoarea. „Sper că mă poți ierta”, a spus chatbot-ul. De atunci, alte știri au evidențiat interogări care au generat răspunsuri greșite și uneori chiar argumentative de la Bing Chat.
În timp ce ChatGPT încearcă să nu supere pe nimeni în răspunsurile sale și are adesea limbaj „de lemn”, Bing Chat a uimit prin replicile „tăioase”.
Microsoft a spus că o parte dintre capturile de ecran din articolul The Verge nu sunt autentice. Compania a mai spus că în articol sunt multe lucruri neadevărate și că este parte a unei campanii de defăimare.
Puncte preluare anunturi "Evenimentul Regional al Moldovei" in Iasi
<
Adauga comentariul tau