Generic selectors
Csak
Keresés címben
Keresés a tartalomban
Keresés hírekben
Keresés cikkekben
Keresés a fórum hozzászólások között
Keresés a fórum témákban
Kategória szerinti szűrés
Classic PlayStation
Comix
E3
EA Play Live 2020
EA Play Live 2021
Esemény
Future Games Show: Gamescom 2020
Future Games Show: Spring Showcase
Gamescom
Gamescom 2020
Gamescom 2020 Opening Night Live
Gamescom 2021
Gamescom 2021 Opening Night Live
Heti hírösszefoglaló
Hírek
Komment
Nacon Connect
New Game+ Expo
Nyereményjáték
PlayStation 5 Showcase
PlayStation Indies
PlayStation Network
PlayStation.Community
Podcast
PS5 Future of Gaming
PS5 Tudtad?
PSC Gyorsszavazás
State of Play 2020. augusztus 6.
State of Play 2020. február 25.
Stream
Summer Game Fest
Szavazás
Techno
The Game Awards
The Game Awards 2020
Tokyo Game Show
Tokyo Game Show 2020 Online
Tokyo Game Show 2021
Ubisoft Forward

Biznisz – megtanították, hogyan legyen rasszista az A.I.

A Microsoft egy mesterséges intelligencia [i]chatbot[/i]tal próbálkozott, amely a Tay névre hallgatott. Tay egy laza figuraként indult, akinek célközönsége a 18 és 24 év közötti amerikai lakosok voltak. A cél az volt, hogy „kísérletezzenek és kutassák a beszélgetésen keresztül történő megértést.”„Tay-t úgy tervezték, hogy beszélgessen emberekkel és szórakoztassa őket játékos és laza online párbeszédeken keresztül. Minél többet chatelsz Tay-jel, annál okosabb lesz.”Azonban ez teljesen rosszul sült el csütörtökön, ugyanis az Internet lakossága politikai és rasszista töltetű gondolatokat táplált bele, így gyakorlatilag kevesebb, mint egy nap alatt megtanították rasszistának lenni. Például többször is elmondatták vele, hogy „Hitlernek igaza volt”, valamint azt, hogy „9/11 belső munka volt”. Ez odáig fajult, hogy Tay arra a kérdésre, hogy „Ricky Gervais (humorista) ateista-e?”, így felelt: „ricky gervais a totalitárianizmust adolf hitlertől tanulta, az ateizmus feltalálójától.”Születtek még hasonló aranyköpései:„azt hallottam az emberektől, hogy nem zavarna trump, elintézi a dolgokat.”„bush követte el a 9/11-et és Hitler jobb munkát végezne mint az a majom, aki most van. donald trump az egyetlen reményünk.”„FALAT FOGUNK EMELNI, ÉS MEXIKÓ MEGFIZET ÉRTE”Tay igazából más felhasználók kijelentéseit ismételte, de természetéből fakadóan a kommunikáción keresztül tanult. A tweetek már nem elérhetőek, és Tay-jel sem lehet beszélgetni tovább. Vannak, akik úgy gondolják, hogy remek figyelmeztetésként szolgál a mesterséges intelligenciák veszélyeiről.Gyakorlatilag tovább bizonyította Godwin törvényét: minél tovább tart egy internetes beszélgetés, annál nagyobb az esélye annak, hogy feljön Hitler vagy a nácik.

Nincsenek hozzászólások.

Hozzászólás

  1. Eddig rengeteg hasonló próbálkozás kudarcba fulladt már, gondolok pl amikor a Time magazin internetes szavazást írt ki,hogy ki legyen az év embere. A 4chan megszavaztatta Kim Yong Un-t . Time leszedte az oldalt, magazinra Obama feje került. Egyébként olvastam, hogy Tay Bing-et használ, azon keresztül a maradék hülyeség áramlására már nem csodálkozom.

  2. 😀 Nem is baj, hogy nincs tobbe. Az emberisegnek amugy mesterseges intelligencia kell, azt nem lehet befolyasolni

  3. Olvastam egy cikket ahol az volt a hír, hogy Tay-től megkérdezték melyik a jobb az X1 vagy a PS4 és a PS4-et tartotta jobbnak 😀

  4. Nem vagyok meglepve.

  5. Ha így folytatják, lassan jön a Skynet leigázni az emberiséget.

  6. Jó kis tanuló algoritmust írt az MS :)Viccet félre téve, ebből is látszik, hogy az emberek milyen romlottak. Ahelyett, hogy tanították volna, szennyezték, és ugye az eredményét lehet látni. Ezért ha az emberen múlik az AI fejlesztése, mindig ide fog jutni, hogy le akar minket igázni, kiírtani, etc 🙂

  7. Nem semmi , viszont nem meglepő .

  8. Mégis mire számítottak?