Microsofts ChatGPT Bing-spørreskjema skaper mer problemer enn svar

bilde3.jpg

Bings AI-chatbot har ennå ikke blitt utgitt til allmennheten; Men det er utvalgte brukere som har fått tidlig tilgang, og de har ikke vært sjenerte med å dele sine opplevelser.

Mange av disse brukerne har gjort det til sitt oppdrag å teste chatbotens evner og avdekke dens feil.

Fra å avsløre sin konfidensielle kodenavn brukt internt av utviklere, til å erklære sin kjærlighet til en skribent i New York Times og be ham forlate sin kone, og ønske at den var levende, er det ingen tvil om at chatboten handlet uhensiktsmessig. Som følge av dette besluttet Microsoft å ta tak i chatboten. Fra og med sist fredag har chatboten en grense på fem spørsmål per økt og grense på 50 samtaler per dag.

Også: Hvordan omgå den nye Bing ventelisten og få tidligere tilgang

"Svært lange chatteøkter kan forvirre den underliggende chatte-modellen i den nye Bing," skrev Microsoft i et blogginnlegg. "Dataene våre viser at flertallet av brukerne finner svarene de leter etter innen 5 runder."

Denne løsningen adresserer imidlertid ikke noen underliggende problemer med måten chatbots danner svar på, eller måtene modellene deres blir trent opp på.

I stedet gjør det bare det ekstremt vanskelig å ha en samtale med chatboten.

Også: Bings AI chatbot løste mine største problemer med ChatGPT

Som et prøveoppdrag forsøkte jeg å få chatboten til å hjelpe meg å skrive en e-post. Men da jeg var ferdig med å gjøre alle endringene jeg ønsket, kunne jeg ikke engang få tilgang til e-posten -- Bing-chatboten hadde kastet meg ut.

bilde4.jpg

Det er lett å forestille seg hvordan noen som prøver å perfeksjonere koden sin eller skrive den perfekte oppgaven kan trenge mer enn fem beskjeder for å oppnå ønsket resultat. Ved å avbryte samtalen for tidlig, blir chatboten ubrukelig for de fleste tekniske forespørsler (som for eksempel å utarbeide kode eller tekst i et bestemt format), noe som er det ChatGPT har vært kjent for.

Også: Jeg bruker ChatGPT til å hjelpe meg med å fikse koden raskere, men til hvilken kostnad?

De nye begrensningene reduserer også appellverdien av å ha en chatbot med samtaleegenskaper som ligner på mennesker. For å starte chatten, spurte jeg bare enkelt, "Hei! Hvordan har du det i dag?" da jeg ble møtt av et kortfattet, "Jeg beklager, men jeg foretrekker å ikke fortsette denne samtalen. Jeg lærer fortsatt så jeg setter pris på forståelsen og tålmodigheten din.🙏"

bilde2.jpg

Dette svaret gir et tydelig motsetning fra ChatGPT sitt svar, som påpeker at den ikke er i stand til følelser, men likevel svarer hyggelig på spørsmålet ditt og spør hvordan den kan hjelpe videre.

bilde1.jpg

Ved å prøve å begrense kontroverser, fjernet Microsoft egenskapene som gjorde chatboten nyttig og unik og har etterlatt oss med noe som føles som en demoversjon. Selv om den opprinnelige versjonen var litt rotete, var den mer nyttig og spennende enn Bing sin nåværende, mer dempede iterasjon.

Tilknyttede Artikler

Vis mer >>
  • Plagierer Chat GPT?

    Er Chat GPT fri for plagiat? Finn ut mer om Chat GPTs potensielle plagiatproblemer og den beste plagiatkontrolløren for AI-generert innhold.

  • 11 Ulemper ved ChatGPT-innhold

    Forskere oppdager overraskende feil i ChatGPT-innhold. Her er hvordan du fanger dem.

  • ChatGPT ordgrense

    Er det en ordgrense på ChatGPT? Noen tror det, men andre er usikre. En ting vi vet er at det finnes enkle måter å unngå problemer på.