Tartalomjegyzék:
- AI és az emberi nyelv
- Miért van túlfújt az AI hamis hírek pánikja?
- Az OpenAI figyelmeztetéseinek védelmében
Videó: WAP, but an AI attempts to continue the song [OpenAI Jukebox] (November 2024)
Az OpenAI nonprofit AI kutatólaboratórium az AI apokalipszis pánik hullámát okozta a múlt hónapban, amikor GPT-2 néven bevezette a legkorszerűbb szöveget generáló AI-t. De miközben a GPT-2 eredményeit ünnepelte, az OpenAI kijelentette, hogy nem engedi nyilvánosságra az AI modelljét, attól tartva, hogy rossz kezekben a GPT-2 rosszindulatú célokra használható fel, mint például félrevezető hírcikkek generálása, más emberekkel való online megszemélyesítés., és automatizálja a hamis tartalom előállítását a közösségi médiában.
AI és az emberi nyelv
A számítógépek történelmileg küzdenek az emberi nyelv kezelésében. Annyira bonyolult és árnyalatos az írott szöveg, hogy gyakorlatilag lehetetlen mindegyiket a klasszikus szoftverszabályokká konvertálni. A mély tanulás és az ideghálózatok közelmúltbeli fejlődése azonban előkészítette az eltérő megközelítést az olyan szoftverek létrehozásának megközelítéséhez, amelyek képesek kezelni a nyelvhez kapcsolódó feladatokat.
A mély tanulás nagy előrelépéseket hozott olyan területeken, mint a gépi fordítás, a szöveg összefoglalása, a kérdések megválaszolása és a természetes nyelv előállítása. Ez lehetővé teszi a szoftvermérnököknek, hogy algoritmusokat készítsenek, amelyek sok példát elemezve fejlesztenek saját viselkedésüket. A nyelvekkel kapcsolatos feladatok elvégzéséhez a mérnökök neurális hálózatok digitalizált tartalmát, például hírleveleket, Wikipedia oldalakat és közösségi médiabejegyzéseket táplálnak. Az ideghálók gondosan összehasonlítják az adatokat, és tudomásul veszik, hogy egyes szavak miként követik mások ismétlődő sorozatait. Ezután ezeket a mintákat összetett matematikai egyenletekké alakítja, amelyek segítenek számukra a nyelvhez kapcsolódó feladatok megoldásában, például a hiányzó szavak előrejelzésében egy szöveges sorrendben. Általában véve, minél több minőségi képzési adatot szolgáltat a mélyreható tanulási modellnek, annál jobb lesz a feladatának végrehajtása során.
Az OpenAI szerint a GPT-2 8 millió weboldalon és több milliárd szóban képzett, ami sokkal több, mint más hasonló modellek. Fejlett AI modelleket is használ a szöveges minták jobb alkalmazásához. A GPT-2 mintájának kimenete azt mutatja, hogy a modell képes fenntartani a koherenciát hosszabb szövegszekvenciákban, mint elődei.
De míg a GPT-2 egy előrelépés a természetes nyelv előállítása területén, ez nem egy olyan technológiai áttörés az AI létrehozása felé, amely megérti az írott szöveg jelentését és összefüggéseit. A GPT-2 továbbra is algoritmusokat alkalmaz olyan szavak sorozatának létrehozására, amelyek statisztikailag hasonlóak a korábban látott milliárdnyi szövegrészhez - egyáltalán nem érti, mit generál.
Mélyreható elemzés során a ZDNet Tiernan Ray számos olyan esetre mutat rá, amikor a GPT-2 kimeneti mintái ismert műtermékekkel árulják mesterséges természetüket, például a kifejezések másolása, valamint a logika és a tények következetességének hiánya. "Amikor a GPT-2 tovább lép az írás megvitatására, amely további ötletek és logika fejlesztését igényli, a repedések meglehetősen szélesre nyílnak" - jegyzi meg Ray.
A statisztikai tanulás segíthet a számítógépeknek nyelvtanilag helyes szöveg létrehozásában, de a logikai és a ténybeli következetesség fenntartásához mélyebb fogalmi megértésre van szükség. Sajnos ez még mindig kihívás, amelyet az AI jelenlegi keverékei még nem tudtak legyőzni. Ez az oka annak, hogy a GPT-2 szép szöveges bekezdéseket generálhat, de valószínűleg nehéz lenne autentikus hosszú formájú cikket létrehozni, vagy meggyőző módon és meghosszabbított idő alatt személyesen ábrázolni valakit.
Miért van túlfújt az AI hamis hírek pánikja?
Egy másik probléma az OpenAI érvelésével kapcsolatban: Feltételezi, hogy az AI hamis hírek válságot okozhat.
2016-ban a macedón tizenévesek egy csoportja millió embernek hamis híreket terjesztett az amerikai elnökválasztásról. Ironikus módon még angol nyelvtudásuk sem volt megfelelő; ők találták a történeteiket az interneten, és egymással különféle tartalmakat varrtak össze. Sikeresek voltak, mert olyan hiteles weboldalakat hoztak létre, amelyek elég hitelesek voltak ahhoz, hogy meggyőzzék a látogatókat, hogy megbízható hírforrásként bízzanak benne. A szenzációs címsorok, a gondolatlan közösségi média felhasználók és a trendgoritmusok tették a többit.
Aztán 2017-ben a rosszindulatú szereplők diplomáciai válságot váltottak ki a Perzsa-öböl térségében azáltal, hogy feltörték a katari állami hírű weboldalakat és a kormány szociális médiaszámláit, és hamis megjegyzéseket tettek közzé Sheikh Tamim bin Hamad Al Thani nevében, a katari emírral.
Amint ezek a történetek azt mutatják, a hamis hírű kampányok sikere a bizalom megteremtésén (és elárulásán) alapul, nem pedig nagy mennyiségű koherens angol szöveg előállításán.
Az OpenAI figyelmeztetései a hamis tartalom elõállításának automatizálásáról a közösségi médiában való közzétételükre még inkább indokoltak, mivel a méret és a kötet fontosabb szerepet játszik a közösségi hálózatokban, mint a hagyományos médiapiacon. Feltételezzük, hogy egy olyan intelligenciainfrastruktúra, mint a GPT-2, képes lesz a közösségi médiát egy adott témáról szóló egyedi üzenet millióival elárasztani, befolyásolva a trend algoritmusokat és a nyilvános vitákat.
De a figyelmeztetések mégis elmaradnak a valóságtól. Az elmúlt években a közösségi média társaságok folyamatosan fejlesztették képességeiket az automatikus viselkedés észlelésére és blokkolására. Tehát a szöveget generáló AI-vel felfegyverzett rosszindulatú szereplőknek az egyedi tartalom létrehozása mellett számos kihívással kell megküzdeniük.
Például több ezer hamis közösségi médiafiókra lenne szükségük, hogy elküldjék az AI által generált tartalmaikat. Még keményebb is, hogy megbizonyosodjon arról, hogy a hamis számlákat nem lehet összekötni, minden egyes fiókhoz egyedi eszközre és IP-címre lenne szükségük.
Súlyosabb: A hasonlóságok csökkentése érdekében a számlákat különböző időpontokban, esetleg egy évet meghaladó vagy annál hosszabb időn belül kell létrehozni. A tavalyi New York Times által végzett vizsgálat kimutatta, hogy a fiókok létrehozásának dátumai önmagában segíthetnek a robotfiókok felfedezésében. Aztán, hogy tovább elrejtsék automatizált természetüket a többi felhasználótól és a rendészeti algoritmusoktól, a fiókoknak emberi jellegű viselkedést kell folytatniuk, például interakciót kell folytatniuk más felhasználókkal, és egyedi hangot kell beállítaniuk a hozzászólásukban.
Ezen kihívások egyikét sem lehetetlen legyőzni, ám ezek azt mutatják, hogy a tartalom csak egy része a közösségi média hamis hírekkel kapcsolatos kampányához szükséges erőfeszítéseknek. És a bizalom is fontos szerepet játszik. Néhány megbízható közösségi média befolyásoló, amely néhány hamis hírbejegyzést tesz fel, nagyobb hatással lesz, mint egy olyan ismeretlen fiókcsomó, amely nagy mennyiségű tartalmat generál.
Az OpenAI figyelmeztetéseinek védelmében
Az OpenAI túlzott figyelmeztetései médiahiány és pánik ciklusát idézték elő, amely ironikus módon magában a hamis híreket ölelte fel, és híres AI szakértők kritikáját váltotta fel.
Meghívták a média munkatársait, hogy hamarosan férjenek hozzá az eredményekhez, sajtóembargóval, így az ugyanazon a napon nyilvánosságra került. Nincs olyan kutató, akiről tudtam, hogy megnézte a nagy modellt, de az újságírók ezt tették. Igen, szándékosan felrobbantották.
- Matt Gardner (@nlpmattg), 2019. február 19
Minden új ember potenciálisan felhasználható hamis hírek generálására, összeesküvéselméletek terjesztésére és az emberek befolyásolására.
Akkor abba kellene hagynunk a csecsemőket?
- Yann LeCun (@ylecun), 2019. február 19
Csak azt akartam, hogy mindannyian fejjel felfelé forduljon, laboratóriumunk csodálatos áttörést talált a nyelv megértésében. de aggódunk az is, hogy rossz kezekbe kerülhet. ezért úgy döntöttünk, hogy selejtezzük, és csak a szokásos * ACL-anyagokat közzétesszük. Nagy tisztelet a csapat ellen, nagyszerű munkájukért.
- (((? () (? () 'Yoav)))) (@yoavgo), 2019. február 15.
Zachary Lipton, az AI kutatója és a Körülbelül helyes szerkesztő, rámutatott az OpenAI történetére, mely szerint "a blogot használják, és túlméretezik a katapult éretlen munkát a közvéleményben, és gyakran játsszák a munka emberi biztonságának aspektusait, amelyek még nem rendelkeznek szellemi képességgel." lábak állni."
Noha az OpenAI megérdemli az összes kritikát és meleget, amelyet a megtévesztő megjegyzései után kapott, az is helyes, hogy valóban aggódjon technológiája esetleges rosszindulatú felhasználása miatt, még akkor is, ha a vállalat felelőtlen módon oktatta a nyilvánosságot róla.
- Az AI Industry etikai elszámolásának éve Az AI Industry etikai számításának éve
- Tisztességtelen előny: Ne várja el, hogy az AI úgy játsszon, mint egy ember. Tisztességtelen előny: Ne várja el, hogy az AI úgy játszik, mint egy ember
- Ez az AI előrejelzi az online trollingot, mielőtt megtörténik
Az elmúlt években láthattuk, hogy az AI technológiákat gondolkodás és reflexió nélkül nyilvánosságra hozhatják rosszindulatú célokból. Az egyik példa a FakeApp, egy AI alkalmazás, amely felcserélheti a videókat. Nem sokkal a FakeApp kiadása után hamis pornográf videókat készítettek, amelyek hírességeket és politikusokat mutattak be, és aggodalomra adtak okot az AI-alapú hamisítás veszélye miatt.
Az OpenAI döntése azt mutatja, hogy szüneteltetnünk kell és gondolkodnunk kell a nyilvánosan megjelenő technológia lehetséges következményeiről. És aktívabb vitákat kell folytatnunk az AI-technológiák kockázatairól.
"Az egyik szervezet, amely egy adott projektet szünetel, valójában nem fog megváltoztatni valamit hosszú távon. De az OpenAI nagy figyelmet kap az elvégzett tevékenységekre… és azt hiszem, hogy dicséretet kellene adni nekik, hogy rávilágítsanak erre a kérdésre" - mondta David Bau. - mondta az MIT számítógépes tudomány és mesterséges intelligencia laboratóriumának (CSAIL) kutatója.