Microsofti tehisintellekt Tay muutus vaid ühe päevaga rassistiks ning ülbajaks

Microsofti tehisintellekt Tay muutus vaid ühe päevaga rassistiks ning ülbajaks

Sel nädalal tutvustas Microsoft tehisintellekti Tay, mis hakkas oma elu elama Twitteris. Microsofti sõnul soovisid nad näha, kuidas saab nende tehisintellekt aru vestlustest ning suudab seal järge ajada. Ettevõtte sõnul pidi Tay iga saadetud sõnumiga targemaks saama.

Kahjuks leidub internetis suur hulk inimesi, kes panid Tay hoopis teistmoodi proovile. Tänu sellele, et Tayle hakati säutsuma rassistlike ning häbistavaid fraase. Tänu sellele muutusid ka Tay poolt säutsutavad vastused üha negatiivsemaks.

Tay tehisintellekt
Microsoft Tay

Microsofti toetuseks ei tasu ära unustada, et Tayd programmeerides ei loonud süsteemi rassistlikuks, ülbeks ega üleolevaks. Inimestega suheldes võttis tehisintellekt meilt õppust ning leidis, et Twitteris tuleb halvustada naisi, feministe, ülistada Hitlerit ning mõnitada ateiste.

Ametlikus kommentaaris teatas Microsoft, et Tay näol ontegu inimestelt õppiva masinõppe projektiga, mis aja möödudes võib inimestelt õppida ka halbu kombeid. Microsoft lubas süsteemis korrektuure teha.

Tay-ga saab vestlust pidada Twitteri vahendusel @TayTweets.

  • snorlis

    Ei noh see on ju täitsa tavaline asi mis juhtuks

  • trikktrakk

    Ainult seda tehisintelligenti pole veel kusagil olemas. On lihtsalt olemas programmeerijate poolt kirjutatud vigane kood ja nii pidigi asi metsa minema.
    Tehisintelligent tekib ikkagi alles kunagi siis kus robot ise suudab endale koodi kirjutada ja suudab seda koodi kogu aeg ise ka edasi arendada. Senimaani on vaja ikkagi programmeerijate armeed kes palehigis muudkui koodi kirjutavad.