hirdetés
hirdetés
hirdetés

TED

Az MI fura szerzet, és gilisztaagya van

A mesterséges intelligenciának nem az a veszélye, hogy fellázad ellenünk; sokkal inkább az, hogy pontosan azt teszi, amit mondunk neki – fogalmaz a mesterséges intelligenciát kutató Janelle Shane. Nagy nézettségre szert tett 2019-es TED-előadásában szemléletes példákkal mutatja meg, miért nem kelhet versenyre az MI az emberi aggyal (sokkal inkább egy giliszta agyára emlékeztet), és hogy milyen valós veszélyeket rejt magában az alkalmazása.

A mesterséges intelligencia arról híres, hogy zavart kelt minden iparágban – ehhez képest, ha kicsit közelebbről megnézzük, még olyan egyszerű feladatokat sem képes rendesen abszolválni, mint hogy új fagylaltízeket találjon ki meglévő ízek kombinálásával. Egy kísérletben, ahol ezzel a feladattal tették próbára, az MI többek közt „mogyoróvaj-sár” és hasonlóan ínyenc hangzású új ízeket hozott létre – nyilvánvalóan mit sem érezvén belőle, hogy ezek valójában mennyire bizarr összeállítások.

Felismeri a gyalogost, de nem tudja, mi az, hogy gyalogos

Vajon mi történt? Mi volt a hiba? Az MI ki akar nyírni minket? Vagy csak teljesíteni akarta a kérésünket, és akadt némi probléma? A filmekben, ha valami gond adódik az MI-vel, az általában azért történik, mert az MI szándékosan fellázad, többé nem engedelmeskedik az embernek, hanem saját célt tűz ki magának. A valóságban azonban a jelenlegi MI még nem elég okos ehhez. Nagyjából akkora a számítási teljesítménye, mint egy földigilisztának, vagy legjobb esetben egy háziméhnek, de valószínűleg még ennyi sem. Ahogy folyamatosan új dolgokat tudunk meg az agyról, úgy lesz egyre világosabb, hogy az MI teljesítménye közelébe sem ér az agynak. A mai MI képes például felismerni egy gyalogost a képen, de fogalma sincs arról, mi az, hogy gyalogos, azonkívül, hogy vonalak, textúrák és dolgok gyűjteménye. Fogalma sincs arról, mi az, hogy ember. Megteszi-e tehát a mai MI, amit kérünk tőle? Persze, ha tudja; de lehet, hogy nem azt teszi, amit kérünk tőle. 

Az MI nem azért veszélyes, mert fellázadna ellenünk, hanem azért, mert pontosan azt fogja tenni, amire megkérjük. Ha tehát MI-vel dolgozunk, így kell feltennünk a kérdést: „Hogyan fogalmazzuk meg a problémát, hogy az MI azt tegye, amit szeretnénk?”

Véletlenül is megtaníthatjuk rossz dolgokra

MI-vel együtt dolgozni nem olyan, mint ha emberekkel dolgoznánk, sokkal inkább arra emlékeztet, mintha egy fura természeti erővel működnénk együtt. És tényleg könnyű véletlenül hibás problémát adni neki megoldásra, majd többnyire nem jövünk rá addig, amíg valami balul nem sül el. Nem szabad elfelejtenünk: az MI teljes világa olyan adatokból áll, melyeket mi tápláltunk bele – és nincs fogalma semmi másról. 

Az adatoknak köszönhetően gyakran előfordul, hogy véletlenül rossz dolgokra tanítjuk meg az MI-t. Egy kutatócsoport például betanított egy MI-t arra, hogy képeken azonosítsa a compó nevű halat. Aztán amikor megkérdezték tőle, a kép melyik része alapján azonosította a halat, a képen az emberi ujjakat emelte ki. Miért emberi ujjak alapján próbálna halat beazonosítani? Nos, a compó történetesen egy trópusi halfaj, és sok képen, melyeket az MI megfigyelt a betanítás során, egy ember tartotta kezében a halat. Az MI pedig nem tudta, hogy az ujjak nem tartoznak a halhoz.

Így már világos, miért nehéz olyan MI-t tervezni, amelyik érti is, amit lát. És ezért olyan nehéz képfelismerést tervezni az önvezető autókban, és azért van olyan sok balesetük, mert az MI-jük összezavarodik. Egy 2016-os példa: halálos baleset történt, amikor valaki MI-robotpilóta üzemmódban ment Teslával, de nem az autópályán, amire tervezték, hanem városi utakon. Az történt, hogy egy kamion hajtott ki elé, az autó pedig nem fékezett. Tény, hogy az MI-nek megtanították, hogy képeken felismerje a kamionokat. De valószínűleg az MI csak autópályán történő vezetés során ismerte fel a kamionokat, ahol számításunk szerint hátulról bukkannak fel. Az oldalról érkező kamion nem valószínű az autópályán, úgyhogy amikor az MI meglátta, valószínűleg útjelző táblának nézte, ezért szép nyugodtan alákormányozta az autót.

Az MI lemásolja az emberi hibákat

Egy másik elhíresült MI-botlás az volt, amikor az Amazon nemrég felhagyott egy önéletrajz-válogató algoritmussal, aminek a fejlesztésén dolgoztak, mert kiderült, hogy az algoritmus diszkriminálja a nőket. Ugyanis olyan önéletrajzokat tápláltak be az MI-nek, melyeket korábbi alkalmazottaik írtak. És az MI ezekből a példákból azt tanulta meg, hogy elvesse azokat, akik női egyetemekre jártak, vagy akiknél a "nő" szó olyan szövegösszefüggésben fordult elő, mint "női kosárlabdacsapat", vagy "Mérnöknők Társasága". Az MI nem tudta, hogy nem ajánlatos ezt a konkrét dolgot lemásolni, úgy, ahogy az emberektől látta. Gyakorlatilag pontosan azt tette, amivel megbízták. Csak a fejlesztők véletlenül rosszul fogalmazták meg a kérést.

És mindig ez történik az MI-vel. Tényleg lehet pusztító, de még csak nem is tud róla. Úgyhogy amikor MI-vel dolgozunk, tőlünk függ, hogyan kerüljük el a problémákat. A problémák elkerülése ősi kommunikációs kérdés lehet, melynek során nekünk, embereknek meg kell tanulnunk helyesen kommunikálni az MI-vel. Meg kell tanulnunk, hogy mit képes megtenni és mit nem. Meg kell értenünk, hogy csöppnyi gilisztaagyával nem képes felfogni, mire kérjük egész pontosan. Vagyis felkészülten kell együttműködnünk vele, mert nem olyan, mint a sci-fik mindentudó MI-szuperhősei. Felkészülten kell együttműködnünk vele, azzal a fajtával, amelyik ma létezik. És a ma létező MI bizony elég fura szerzet – zárja előadását a mesterségesintelligencia-kutató.

Itt megtekintheted a teljes előadást!

(forrás: ted.com)
hirdetés
IRATKOZZON FEL
HÍRLEVELÜNKRE!

KÖVESSEN MINKET A FACEBOOKON!

hirdetés
ÉRDEKES HÍRE VAN? KÜLDJE EL NEKÜNK!
hirdetés

Meg akarsz tanulni gyilkosan jó álláshirdetést írni? Gyere el „Kreatív álláshirdetés” workshopunkra február 27-én! Előadó: Földi Miklós Dániel reklám- és neuropszichológus

Hozd a laptopod! – Facebook és Instagram tréning HR-eseknek, lépésről lépésre, március 12-én!

Mit tehet az ember a környezetért a saját munkahelyén - és hogyan tegye mindezt a vállalati kultúra részévé? Gyakorlati tippek, információk a témában.

Toborzási kampányok létrehozása és eredményes működtetése a LinkedIn-en: gyakorlati workshop április 2-án, limitált létszámmal.

SAVE THE DATE Vezetés és pszichológia konferencia április 28-án!

hirdetés