Itthon Jellemzők Hogyan próbálja a google puzzle méregteleníteni az internetet

Hogyan próbálja a google puzzle méregteleníteni az internetet

Tartalomjegyzék:

Videó: Как создать собственный VPN-сервер с помощью приложения Outline (November 2024)

Videó: Как создать собственный VPN-сервер с помощью приложения Outline (November 2024)
Anonim

Az internet mérgező helynek érzi magát. A trollok a kommentár szakaszokba és a közösségi média szálaiba szállnak le, hogy gyűlöletbeszédet és zaklatást keltsenek, és a potenciálisan felvilágosító vitákat ad hominem támadásokká és csoportos halmozásokká alakítsák. Az online véleménynyilvánítás gyakran nem éri meg a kapott vitriolt.

A hatalmas közösségi platformok - köztük a Facebook, a Twitter és a YouTube - elismerik, hogy nem tudják megfelelően ellenőrizni ezeket a kérdéseket. Fegyverversenyen vannak botok, trollok és minden más nemkívánatos ember, aki átcsúszik a tartalomszűrőkön. Az emberek fizikailag nem képesek minden kommentárt elolvasni az interneten; akik megpróbálják, gyakran megbánják.

A technikai óriások kísérleteztek az emberi moderálás, az AI algoritmusok és a szűrők különféle kombinációival, hogy megkíséreljék a hírcsatornákon átáramló tartalom nagy mennyiségét. A Jigsaw megpróbál középutat találni. Az Alphabet leányvállalata és tech inkubátora, korábban a Google Ideas néven ismertté vált, hogy az emberi moderátorok eszközévé alakított gépi tanulás megváltoztathatja az internet toxikológiai problémájának megközelítését.

A Perspective egy API, amelyet a Jigsaw és a Google Visszaélésellenes Technológia csapata fejlesztett ki. Az ML segítségével észlelheti az online visszaéléseket és zaklatásokat, és pontozza az észrevételeket annak alapján, hogy milyen érzékelhető hatással lehetnek a beszélgetésre egy emberi moderátorok életének megkönnyítése érdekében.

Perspektíva a kiabálási mérkőzések között

A nyílt forrású technológiát 2017-ben jelentették be először, bár a fejlesztése néhány évvel korábban megkezdődött. A Perspektívával kísérletező első webhelyek közül néhány olyan sajtóközlemény volt, mint a The New York Times, valamint olyan webhelyek, mint a Wikipedia. A közelmúltban azonban a Perspective otthont talált olyan oldalakon, mint a Reddit és a Disqus megjegyzésplatform (amelyet a PCMag.com használ.)

CJ Adams, a Perspective termékmenedzsere elmondta, hogy a projekt azt kívánta megvizsgálni, hogy az emberek hangját hogyan lehet elnémítani online módon. A Jigsaw meg akarta vizsgálni, hogy a célzott visszaélés vagy a zaklatás általános légköre hűvös hatást idézhet elő, elriasztva az embereket arra a pontra, amikor úgy érzik, hogy nem érdemes időt vagy energiát adni, hogy hangot adjunk a beszélgetéshez. Milyen gyakran láttál egy tweetet, hozzászólást vagy megjegyzést, és úgy döntötted, hogy nem válaszolsz, mert a trollok elleni harc és a Mad Online elérése egyszerűen nem éri meg a súlyosbodást?

"Nagyon könnyű elrontani az online beszélgetést" - mondta Adams. "Könnyű bejutni, de ha valaki nagyon közép vagy mérgező, akkor más hangok kiszivárogtathatók. Talán 100 ember olvasta egy cikket vagy vitát indít, és gyakran a szobában a leghangosabb hangok maradnak, egy olyan internetben, amely a kedvelésekhez és a megosztáshoz van optimalizálva. Tehát elhallgattatja ezeket a szavakat. A vita meghatározása tehát csak a leghangosabb hang a szobában - a kiabálás.

    Kirakós játék és a Google

    Durva év telt el a Jigsaw testvérvállalatának, a Google-nak, amely megbirkózott az adatbiztonsági kérdésekkel, az alkalmazottak visszautasításával a Pentagon és Kína projektjeiben való részvételével, valamint a szexuális zaklatás kezelésével kapcsolatos felfedezésekkel. Nem is beszélve a vitatott kongresszusi meghallgatásról, amelyben Sundar Pichai vezérigazgatót sütötték a törvényhozók.

    A Jigsaw-nél, az Alphabet altruista inkubátoránál a dolgok kissé kevésbé voltak drámai. A csapat idejét a cenzúra technikaibb formáinak tanulmányozására, mint például a DNS-mérgezés az Intra alkalmazásával és a DDoS támadások a Project Shield segítségével. A Perspektíva szempontjából a cél absztrakt. Ahelyett, hogy gépi tanulást alkalmaznánk annak meghatározására, hogy mi áll szemben egy adott szabályrendszerrel, a perspektíva kihívása intenzíven szubjektív: a nyelv érzelmi hatásainak osztályozása.

    Ehhez természetes nyelvfeldolgozásra (NLP) van szükség, amely egy mondatot lebontja a minták észlelésére. A Perspektiv csapat olyan problémákkal néz szembe, mint a megerősítési elfogultság, a csoportgondolkodás és a zaklató magatartás olyan környezetben, ahol a technológia tovább bővítette elérhetőségüket, és megnehezítette azok megoldását.

    Az AI „rossz és ostoba néha”

    Az online beszélgetések fejlesztése a gépi tanulással nem egyszerű feladat. Még mindig feltörekvő kutatási terület. Az algoritmusok torzíthatók, a gépi tanulási rendszerek végtelen finomítást igényelnek, és a legnehezebb és legfontosabb problémákat nagyrészt még nem fedezték fel.

    A Perspektívumot létrehozó Conversation AI kutatócsoport az újságokkal, a kiadókkal és a beszélgetéseket otthoni más oldalakkal való találkozással kezdte meg. A The New York Times , a Wikipedia, a The Guardian és a The Economist a technológiával kísérletezett első helyek közül néhány volt.

    2017-ben a csoport egy nyilvános weboldalon egy alfa-teszt részeként megnyitotta a kezdeti Perspektiv bemutatóját, lehetővé téve az emberek millióinak gonosz, visszaélésszerű megjegyzéseket a webhelyre. Olyan volt, mint a Microsoft hírhedt sikertelen Tay chatbot kísérlete, kivéve, hogy a botot rasszista tweetekkel való válaszadásra buzdította, és a Jigsaw a tömegből származó virulenciát képzési adatokként használta modelleinek táplálására, segítve az online visszaélések különféle típusainak azonosítását és kategorizálását.

    A kezdeti nyilvános teszt nem ment simán. A Wired "Trolls Across America" ​​című szakasza, amely a perspektíva pontozása alapján megbontotta az országos megjegyzés kommentálását, megmutatta, hogy az algoritmus véletlenül diszkriminálta a csoportokat faj, nemi identitás vagy szexuális irányultság alapján.

    Adams őszinte volt arról a tényről, hogy a Perspective kezdeti tesztelése jelentős vak helyeket és algoritmikus torzításokat tárt fel. Mint az Amazon selejtezett toborzási eszközével, amely évtizedek óta hibás munkalehetőségeket dolgozott ki és veleszületett elfogultságot alakított ki a női pályázókkal szemben, a korai perspektíva modelleknek is voltak szembetűnő hibáik az oktatott adatok miatt.

    "A gyakran célzott csoportok példájában, ha megnézzük az oktatási adatkészletben szereplő megjegyzések megoszlását, elhanyagolhatóan kevés olyan kommentár létezett, amelyek tartalmazzák a" meleg "vagy a" feminista "szót, és pozitívan használják azt. "- magyarázta Adams. "A sértő megjegyzések sértésként használják a szavakat. Tehát az ML a mintákat vizsgálva azt mondaná:" Hé, ennek a szónak a meglehetősen jó előrejelzője annak, hogy ez az érzés mérgező-e vagy sem."

    Például az alfa-algoritmus tévesen jelölhette meg olyan állításokat, mint „büszke meleg ember vagyok” vagy „feminista és transznemű”, magas toxicitási pontszámmal. Ám a nyilvánosan átlátható képzési folyamat - bár fájdalmas - felbecsülhetetlen értékű lecke volt a Jigsaw számára a nem szándékos elfogultság következményeiben - mondta Adams.

    Amikor a gépi tanulási modelleket olyan szorgalmas és személyes kérdésekre, mint az online visszaélések és zaklatások képezik, az algoritmikus elfogultság azt is hangsúlyozza, hogy miért nem az AI egyedül a megoldás. Az olyan társadalmi társaságok, mint a Facebook és a YouTube, mind a platformok AI-tartalom-moderálási funkcióit csak a botrány közepette való visszavonulásra és a helyes útra hivatkoztak, embereket ezer embert alkalmazva.

    A Jigsaw taktikája a kettő hibridje. Perspektíva nem az AI algoritmusok, amelyek vákuumban hoznak döntéseket; az API integrálva van a közösség-menedzsment és a tartalom moderáló interfészekbe, hogy segítő eszközként szolgáljon az emberi moderátorok számára. A leendő mérnökök a szénakazalban alkalmazott analógia segítségével leírják a gyűlöletbeszéd moderálását ML-vel és anélkül: Az AI segíti a válogatás folyamatának automatizálását, hatalmas szénakazalások elpusztítását, miközben az embereknek végső véleményt ad arról, hogy egy megjegyzés visszaélésszerűnek vagy zaklatásnak tekinthető-e.

    "Ez az ML új képessége" - mondta Adams. "Az emberek arról beszélnek, hogy milyen intelligens AI, de gyakran nem beszélnek minden olyan módon, ami rossz és néha hülye. A kezdetektől fogva tudtuk, hogy ez sok hibát fog okozni, és így mondtunk:" Ez Ez az eszköz hasznos a gépi asszisztencia során, de nem áll készen arra, hogy automatikus döntéseket hozzon. De elviszi a „tűt a szénakazalban” problémát, hogy megtalálja ezt a mérgező beszédet, és egy maréknyi széna elé állítsa.

    Mi a toxicitási pontszám?

    A perspektíva modellezésének legmegosztóbb aspektusa az, hogy a számokat olyan változóra helyezi olyan szubjektív módon, mint a "toxicitás". Adams elsõként rámutatott arra, hogy a Perspektíva pontszáma a valószínûség, nem pedig a súlyosság jele. A magasabb szám nagyobb annak valószínűségét, hogy a szövegben szereplő minták hasonlítanak a megjegyzésben szereplő mintákhoz, amelyeket az emberek toxikusnak jelöltek meg.

    Ami a "mérgező" valójában azt jelenti, hogy a Perspektiiv csapata azt széles körben úgy definiálja, mint "durva, tiszteletlen vagy ésszerűtlen megjegyzés, amely valószínűleg késztet egy beszélgetést." De hogy ez nyilvánvalóan finom lehet. 2018-ban a Jigsaw együttműködött a Rhodes Artificial Intelligence Lab-nal (RAIL), hogy olyan ML modelleket dolgozzon ki, amelyek fel tudják venni a fenyegető vagy gyűlöletbeszéd többértelmű formáit, például egy elutasító, enyhítő vagy szarkasztikus megjegyzés, amely nem nyíltan ellenséges.

    Eddig a pontig a legtöbb Perspective modell képzésben részesült azzal, hogy felkérte az embereket, hogy értékeljék az internetes megjegyzéseket "nagyon mérgező" és "nagyon egészséges" skálán. A fejlesztők ezután kalibrálhatják a modellt, hogy megjegyzéseket jelöljenek meg egy bizonyos küszöbérték felett (0, 0–1, 0). A 0, 9 feletti pontszám a toxicitás nagy valószínűségét jelzi, míg a 0, 5 vagy annál alacsonyabb pontszám jelentősen alacsonyabb algoritmikus bizonyosságot jelent. A perspektíva a pontszám-normalizálásnak is nevezi, amely a fejlesztőknek következetes alapvonalat ad a pontszámok értelmezéséhez. Adams kifejtette, hogy a fórumtól vagy a weboldaltól függően a fejlesztők keverhetik és illeszthetik a modelleket. Tehát, ha egy közösség nem bánja az ostobasággal, akkor ezt a tulajdonságot le lehet súlyozni.

    Adams mutatott nekem egy Demo moderációs felületet, amelyet integráltak a Perspective API-val. Az admin panelen a megjegyzések tetejére, legújabbra és így tovább rendezésére vonatkozó lehetőségei mellett egy kis zászló ikon jelenik meg a toxicitás alapján történő osztályozáshoz. Van egy beépített visszacsatolási mechanizmus is az emberi moderátor számára, hogy elmondja a Perspective számára, hogy hibásan írt megjegyzést, és az idővel tovább javítja a modellt.

    Kattintott egy bemutató felületre a Wikipedia Talk oldal megjegyzéseinek moderálására, amelyeket különböző perspektíva modellek készítettek, és egy hisztogram grafikonon bontotta le, mely kommentárok valószínűleg támadást jelentenek az oldal szerzője ellen vagy támadás egy másik kommentátor ellen.

    "Géppel támogatott moderációs eszközöket akarunk építeni, amelyek megjelölik a dolgokat az emberek számára, de nem akarjuk, hogy valamilyen központi meghatározás vagy valaki mondja el, mi a jó és a rossz" - mondta Adams. "Tehát ha a toxikusság alapján sorolom, akkor látom, hogy a megjegyzések az elejére válnak. De ha inkább törődnek, mondjuk, az identitás támadásokkal vagy fenyegetésekkel, mint olyan mutatókkal, mint a káromkodás, akkor talán nem használnánk egy általános toxicitási modellt. Ezek a összekeverhető összetevőket. Kínálunk ezeket, és a fejlesztők súlyozzák őket."

    A RAIL kísérlet részletesebb megközelítést alkalmaz. Az Oxford grad hallgatói több tízezer kommentárból állnak össze a kanadai Globe and Mail napilap megjegyzései részében és a Wikipedia Talk oldalain. Arra kérik az emberi „kommentárokat”, hogy válaszoljanak az „egészségtelen tartalom” öt aljellemzőjével kapcsolatos minden megjegyzés kérdésére: ellenséges vagy sértő (trollok), elutasító, leereszkedő vagy pártfogoló, szarkasztikus és tisztességtelen általánosítások.

    Ezeknek a finomabb tulajdonságoknak a bevonása új összetett problémákat tárt fel az egyes csoportok felé irányuló szándék nélküli elfogultság és a szarkasztikus megjegyzésekkel járó hamis pozitív eredmények miatt. Ez része az AI növekvő fájdalmainak, egyre több modell táplálja a modelleket, hogy megértse az emberi beszéd mögött álló, közvetett jelentéseket. A csapat még mindig több ezer kommentárral foglalkozik és kommentál, és ez év elején tervezi kiadni a végleges adatállományt.

    "Amit arra törekszünk, hogy dolgozzunk egy olyan kérdésben, amelyben a közösség pontozhat egy megjegyzést, majd elkészíthetjük őket a Perspective modellek egyéni keverékével, amely megfelel" - mondta Adams.

    Reddit kíváncsi tesztje

    A Reddit mindaz, amely jó és szörnyű az interneten, mikrokozmosza. Minden témához van egy subreddit közösség és rés, furcsa érdeklődés, amelyre gondolhat. A Jigsaw vállalati szinten nem működik a Reddit-rel, de az egyik legérdekesebb hely, ahol a Perspective AI moderálódását tesztelik, az r / changemyview nevű alhálózaton található.

    Meglepő módon vannak olyan internet sarkok, ahol még mindig történik valódi vita és vita. A Saját nézet megváltoztatása, vagy a CMV nem olyan, mint a többi alhitel. Az ötlet az, hogy közzétesz egy véleményt, amelyet elfogadhat, vagy amely hibás, vagy nyitott a megváltoztatására, majd hallgassa meg és értse meg más szempontokat, hogy megvizsgálja, megváltoztathatja-e a véleményét egy kérdésben. A szálak a mindennapi témáktól kezdve, például a Csillagok háborúja filmjeinek megfelelő nézettségi sorrendjétől a súlyos vitákig terjednek, beleértve a rasszizmust, a politikát, a fegyverkezelést és a vallást.

    A Change My View érdekes tesztcsatorna a perspektíva számára, mivel a subreddit saját részletes szabályrendszerével rendelkezik a beszélgetések elindításához és moderálásához, amelyek érvelést és heves vitát idéznek elő a tervezés során. Kal Turnbull, aki az u / Snorrrlax mellett megy a Reddit-en, az r / changemyview alapítója és egyik moderátora. Turnbull elmondta a PCMag-nak, hogy a Perspective API különösen jól illeszkedik az alszakasz 2. szabályához, amely alapvetően tiltja a durva vagy ellenséges beszédet.

    "Egyszerű szabálynak hangzik, de nagyon sok árnyalattal rendelkezik" - mondta Turnbull, aki Skóciában található. „Nehéz automatizálni ezt a szabályt anélkül, hogy okosan beszélne a nyelvről. A Reddit megadja ezt az AutoModerator nevû dolgot, ahol beállíthat szûrõket és kulcsszavakat a megjelöléshez. De nagyon sok hamis pozitív eredmény van, és ezt elég nehéz megszerezni, mert valaki rossz szót mondhat anélkül, hogy sértené valakit, és sérthet valakit anélkül, hogy rossz szavakat használna. ”

    A kirakós játék 2018. márciusában fordult a Turnbullhoz. Az együttműködés a 2. szabálylal kezdődött, de a csapat hamarosan más perspektívák szempontjából is modellt készített. Ez nem a nyílt forráskódú Perspective API teljes integrációja, hanem egy Reddit bot, amely lehetővé teszi a moderátoroknak, hogy megjelöljék egy adott toxicitási küszöbérték fölött megjegyzéseket.

    Az elmúlt hat évben a Turnbull és a többi mod mindezt manuálisan tette az AutoModerator jelentések (megjelölt kulcsszavak) és a felhasználói jelentések sorából. A Jigsaw évekig tartó szabálysértési megjegyzéseket használt a moderátoroktól, amelyeket böngésző-kiterjesztésen keresztül követtek nyomon, és ezen adatok alapján készített Perspektiv modelleket, a Perspective néhány meglévő toxicitási modelljével kombinálva. 2018 folyamán a CMV-modellek visszajelzést adtak olyan kérdésekről, mint a hamis pozitív pozitív eredmények, és a Jigsaw megcsúsztatta a pontozási küszöböt, miközben tovább modellezte a CMV szabályait.

    Komplex ítéletek az online vitában

    (A Perspective bot integrálva van a Reddit moderátor interfészbe.)

    A perspektíva nem teljes a subreddit szabályok moderálása során. Néhány bonyolultabb vagy elvont szabály még mindig túllépi azokat, amelyeket ez a fajta ML megérthet.

    Például a 4. szabály az al Delta pontrendszerét szabályozza, míg a B szabály megakadályozza a felhasználókat, hogy az ördög ügyvédét játsszák, vagy egy posztot használjon a „szappanbuborításhoz”. Ilyen jellegű moderált moderálás kontextuális adatokat és egyértelmű emberi megértést igényel, hogy megkülönböztessék, valakinek valódi okok miatt érvel-e vagy egyszerűen csak trolog.

    A belátható jövőben továbbra is szükségünk lesz emberi modokra. Ezekben a bonyolultabb döntési forgatókönyvekben a CMV moderátorok repedéseket tapasztalnak az AI modellezésben, és az okosabb automatizálás meghatározhatja, hogy mindez skálázható-e.

    "Úgy gondolom, hogy ez annyira bonyolult, mert az eredeti üzenetükkel kapcsolatos megítélésünk és az egész beszélgetés során folytatott interakciónk kombinációja. Tehát nem csak egy megjegyzés indítja el a modellt" - mondta Turnbull. "Ha egy érv oda-vissza megy, és a végén egy" köszönöm "vagy egy nyugtázó kommentár szól, akkor elengedjük, még akkor is, ha egy szabályt korábban megszegtünk a szálban. Vagy egy könnyed vicc, amely összefüggésben van durvanak tűnhet - ez egy kedves kis emberi dolog, és ezt a botot még nem kapja meg."

    A Change My View az egyetlen olyan subredd, amely jelenleg aktívan használja a Perspective ML modelleket moderálásra, bár Adams szerint a csapat több mástól kapott hozzáférési kérelmet. A CMV sajátos szabálykészlete ideális teszt esetévé tette, de a Perspektiv modellek megmunkálhatók; az egyes aldíjak testreszabhatják a pontozási algoritmust, hogy megfeleljenek a közösségi iránymutatásoknak.

    A Turnbull következő lépése a CMV levonása a Redditről, mert a közösség kinövi azt - mondta. Az elmúlt hat hónapban a moderátorok újonnan létrehozott indítása a Jigsaw-val egy erre a célra létrehozott webhelyen működött, mélyebb funkcionalitással, mint amit a Reddit mod interfésze és botjai képesek nyújtani.

    A projekt továbbra is csak alfa-tesztelés alatt áll, de Turnbull olyan funkciókról beszélt, mint például a proaktív riasztások, amikor a felhasználó egy szabályt megsértő megjegyzést gépel, a beépített jelentéstételt, hogy a moderátorok több kontextust kapjanak, és a történelmi adatokat a döntések meghozatalához. Turnbull hangsúlyozta, hogy nem tervezi az alhirdetés leállítását vagy áttelepítését, de izgatottan tartja az új kísérletet.

  • Az összes megjegyzés nyomtatásra alkalmas

    A hét napjától függően a The New York Times weboldala 12 000-től több mint 18 000-ig megjegyzést kap. 2017 közepéig a papír kommentárjait egy teljes munkaidőben működő közösségi menedzsment munkatársa moderálta, akik minden egyes megjegyzést elolvastak és eldöntötték, hogy jóváhagyják-e vagy elutasítják-e.

    Bassey Etim, aki ebben a hónapban a Times közösségi szerkesztője volt, egy évtizedet töltött a közösségi pultnál, és 2014 óta volt annak szerkesztője. A hét napja tetején lehet, hogy a csapatban néhány ember moderál vélemény véleményeket, míg más foglalkozott hír történetekkel. Egy táblázat felosztott és nyomon követte a különféle felelősségeket, de körülbelül egy tucat emberből álló csoportot folyamatosan kineveztek vagy mozgattak körül, a pillanat legfrissebb híreitől függően. Emellett az észrevételekből származó apróságokat táplálták vissza az újságíróknak a lehetséges történettakarmányért.

    Végül világossá vált, hogy ez több mint 12 embert képes kezelni. A történetekhez fűzött megjegyzésrészeket bezárnia kellene, miután elérte a maximális számú megjegyzést, amelyeket a csapat moderálhat.

    Az újság közönségfejlesztő csoportja már kísérletezett a gépi tanulással az alapvető, nyilvánvaló megjegyzések jóváhagyása érdekében, ám Etim azt mondta, hogy nem különösebben okos vagy testreszabható. A The Times először 2016 szeptemberében jelentette be a Jigsaw-val fennálló partnerségét. Azóta a megjegyzések szakaszai az összes történet kevesebb, mint 10% -án jelennek meg, ma körülbelül 30% -ra növekednek és felkapaszkodnak.

    A Jigsaw szempontjából az inkubátor lehetőséget talált arra, hogy napi millió millió kommentárból kilátásolja a Perspektív névtelenített adatokat, amelyeket szakemberek moderálnak, akik segítenek a folyamat finomításában. Az anonimizált ML képzési adatokért cserébe a Jigsaw és a Times együtt dolgozott egy Moderátor nevű platform létrehozásában, amely 2017 júniusában indult el.

  • Inside Moderator, a NYT komment felület

    (Kép a New York Times jóvoltából )

    A moderátor ötvözi a Perspective modelleit több mint 16 millió anonimizált, moderált Times kommentálással, amely 2007-re nyúlik vissza.

    Amit a közösség csapata valójában lát a moderátor felületen, egy interaktív hisztogram-diagrammal ellátott műszerfal, amely egy bizonyos küszöb felett megmutatja a megjegyzés bontását. Elmozdíthatják a csúszkát például oda-vissza, hogy automatikusan jóváhagyják az összes megjegyzést, csupán 0 és 20 százalékos összefoglaló pontszámmal, amely a megjegyzés obszcenciája, toxicitása és az elutasítás valószínűsége kombinációján alapul. Az alábbiakban található gyors moderációs gombok a megjegyzés jóváhagyásához vagy elutasításához, elhalasztásához vagy a megjegyzés megcímkézéséhez a Perspektíva modellezésének továbbfejlesztése érdekében.

    "A weboldal minden részében elemeztük a beérkező megjegyzéseket és azt, hogy a Perspektíva hogyan címkézzük őket. Mind a nyilvános perspektíva modelleket, mind a The New York Times-ra jellemző saját modelleket használtuk" - mondta Etim. "Megvizsgálom az egyes szakaszok észrevételeit, és megpróbálom megtalálni azt a küszöböt, ahol kényelmesen mondhatnánk:" Rendben, minden, ami ezen valószínűség fölött van ezen speciális toxicitási címkék felhasználásával, mint például obszccencia, jóvá fogjuk hagyni."

    A gépi tanulás viszonylag kis százalékban hagyja jóvá a hozzászólásokat (kb. Körülbelül 25% -ot, Etim szerint), mivel a Times úgy működik, hogy további történeteket fűzzön hozzá, és végül még azt is testreszabja, hogy a modellek miként szűrik és hagyják jóvá a webhely különböző szakaszainak megjegyzéseit. A modellek csak a megjegyzéseket hagyják jóvá; az elutasítást továbbra is teljes egészében az emberi moderátorok végzik.

    Azok a kézi kommentárválasztások megszűntek. A megjegyzések általában egy történetet zárnak le, akár 24 órával az online közzététel után, akár a nyomtatott közzétételt követő napon - mondta Etim.

    "Nem cserélünk téged gépekre"

    A következő szakasz az, hogy további funkciókat építünk a rendszerbe, hogy a moderátorok prioritássá tegyék a megjegyzéseket, amelyeket először meg kell nézni. A folyamatosan kézi folyamat automatizálása egyre inkább lehetővé tette a moderátorok számára, hogy proaktívan együtt dolgozzanak az újságírókkal az észrevételek megválaszolására. Létrehozta egy visszacsatolási ciklust, ahol a megjegyzések nyomon követési jelentésekhez és további történetekhez vezetnek - megtakaríthatják és átcsoportosíthatják az erőforrásokat további újságírás létrehozása érdekében.

    "A moderátor és a Perspective tette a Times sokkal reagálóbbá az olvasói aggodalmakat, mert erre van erõforrásunk, hogy ezt megtegyük, akár saját történetek írásával, akár újságírókkal való együttmûködéssel dolgozzuk ki a történeteket" - mondta Etim. "A remek dolog ebben a projektben az, hogy nem bocsátottunk ki senkit. Nem cserélünk téged gépekre. Egyszerűen csak az embereket használjuk hatékonyabban, és meghozjuk az igazán nehéz döntéseket."

    A cikk nyitott más publikációkkal való együttműködésre, hogy segítse az iparág többi részét az ilyen típusú technológia alkalmazásában. Segíthet a korlátozott erőforrásokkal rendelkező helyi hírközpontokban a megjegyzésrészek fenntartásában nagy dedikált személyzet nélkül, és a megjegyzések felhasználásával, ahogyan a Times teszi, a potenciális ügyfelek megtalálásához és a helyi újságírás felgyorsításához.

    Etim az AI-asszociált moderációt azzal hasonlította össze, hogy a mezőgazdasági termelőnek mechanikus ekét adjon egy ásóval szemben. Eke sokkal jobban meg tudja csinálni.

    "Ha a perspektíva helyesen fejlődik, akkor remélhetőleg legalább egy olyan iránymutatást készít, amely megismételhető a kis üzletek számára" - mondta. "Ez egy hosszú játék, de már rengeteg alapot felállítottunk az olvasói élmény részeként. Akkor ezeknek a helyi újságoknak újra megjegyzéseik lehetnek, és létrehozhatnak egy kis tengerpartot a nagy társadalmi szereplőkkel szemben."

    Sikoltozik a mélységbe

    Ezen a ponton a legtöbbünk látta, hogy az embereket támadják vagy zaklatják a közösségi médiában véleménynyilvánítás céljából. Senki sem akarja, hogy velük megtörténjen, kivéve a trollokat, akik ezt a fajta dolgot gyarapítják. És megtudtuk, hogy egy idegennek kiabálása, aki soha nem hallgat meg racionális érveket, nem időnk értékes felhasználása.

    A perspektíva megpróbálja ezt a dinamikát felforgatni, de CJ Adams szerint a tágabb cél az adatok, kutatások és új nyílt forráskódú UX modellek közzététele új beszélgetési struktúrák létrehozására - ijesztő feladat. Az internet egészséges helyének megteremtése, amely megéri az emberek idejét, azt jelenti, hogy ezeket a rendszereket méretezni kell a hírleíró szakaszokon és az alhiteken túl. Végül, az AI-eszközöknek képesnek kell lenniük a mindennapi digitális interakciónkban uralkodó óriási közösségi alkalmazások és hálózatok kezelésére.

    Ha nem vesszük figyelembe a Facebook, a Twitter és más társadalmi óriások belső munkáját, ennek legmegfelelőbb módja az, ha a technológiát a moderátoroktól magukhoz a felhasználók felé továbbítjuk. Adams rámutatott a korallprojektre annak elképzelésére, hogy mik lehetnek.

    A korallprojekt eredetileg a Mozilla Alapítvány, a New York Times és a Washington Post együttműködéseként jött létre . A Coral nyílt forráskódú eszközöket épít, például a Talk platformját, hogy ösztönözze az online beszélgetést, és alternatívát adjon a híroldalak számára a megjegyzés szakaszok leállításához. A Talk jelenleg közel 50 online kiadó számára biztosít platformokat, köztük a Post , a New York Magazine, a Wall Street Journal és a The Intercept.

    A hónap elején a Vox Media megvásárolta a Coral Project-et a Mozilla Alapítványtól; azt tervezi, hogy "mélyen integrálja" a Chorus-ba, annak tartalomkezelő és történetmesélő platformjába.

    A Perspective rendelkezik a Coral Project beépülő moduljával, amely ugyanazt a mögöttes technológiát - ML-alapú toxicitási pontszámot és küszöbértékeket - használja, hogy proaktív javaslatokat tegyen a felhasználóknak gépelés közben - mondta Adams. Tehát, amikor egy felhasználó kommentárt ír, amely tartalmaz visszaélésnek vagy zaklatásnak megjelölt mondatokat, megjelenhet egy figyelmeztetés, amelyben a felhasználó mondja: „Mielőtt elküldené ezt, ügyeljen arra, hogy emlékezzen a közösségi irányelveinkre” vagy „A megjegyzés nyelve sértheti a moderációs csapatunk hamarosan felülvizsgálja azt."

    "Ez a kis dörzsölés segíthet az embereknek arra, hogy csak arra gondolják, hogy ez a pillanat megtörténjen, de ez sem akadályozza meg senkit" - mondta Adams. "Ez nem állítja meg a vitát."

    Ez egy olyan mechanizmus, amelyet a videojáték-csevegés és a streaming platformok integráltak a visszaélések és zaklatások megakadályozására. A Twitter-felhasználók egyértelműen profitálhatnak is egy ilyen rendszerből.

    Ez egy olyan gondolatra szól, amelyet Andrew Lippmann, a MIT kutatója felvetett a PCMag Future Issue-be: Beszélt olyan beépített mechanizmusokról, amelyek lehetővé teszik az embereknek, hogy megálljanak és elgondolkodjanak, mielőtt megosztanák valamit az interneten, hogy segítsék megakadályozni a téves információk terjedését. A koncepció az online beszélgetésre is vonatkozik. Olyan súrlódásmentes kommunikációs rendszereket hoztunk létre, amelyek képesek egy nyilatkozatot egy pillanat alatt exponenciálisan erősíteni, ám néha jó kis súrlódás lehet jó dolog - mondta Lippmann.

    A perspektíva nem arról szól, hogy az AI-t takarékos megoldásként használja. Ez egy módja annak, hogy az ML modellek eszközévé váljanak az emberek számára, hogy segítsék nekik a saját tapasztalataik tisztelését. De az egyik ellenpont az, hogy ha még könnyebben megkönnyíti az emberek számára az általuk nem kedvelt online zaj hangolását, az internet még inkább visszhangos kamrává válik, mint eddig.

    Arra a kérdésre, hogy az olyan eszközök, mint a Perspektíva - ezt végül súlyosbíthatják, Adams azt mondta, úgy véli, hogy az online visszhangkamrák léteznek, mert nincs olyan mechanizmus, amely olyan vitát tartana, ahol az emberek érdemben nem értenek egyet.

    "A legkevesebb ellenállás útja" Ezek az emberek harcolnak. Engedjük, hogy megegyezzenek saját magukkal a saját sarkukban. Hagyjuk, hogy az emberek magukat silozzák "- mondta. "Ha engedi az embereknek, hogy mindenki másnak kiáltsanak a helyiségből, vagy leállítják a beszélgetést. Azt akarjuk, hogy a Perspektíva hozzon létre egy harmadik lehetőséget."

    Adams egy minta forgatókönyvet készített. Ha egy 1000 fős szobát kérdez: "Hányan olvastak ma valamit, ami igazán törődött vele?" a legtöbb internet-felhasználó egy cikkre, egy tweetre, egy üzenetre vagy valamire mutat, amelyre online olvassanak. De ha aztán megkérdezi tőle: "Hányan gondolják, hogy érdemes-e idejüket kommentálni vagy megbeszélést folytatni?" a szobában lévő összes kéz leesik.

    "Sokak számára egyszerűen nem érdemes erőfeszítést tenni. A jelenlegi megbeszélés struktúrája azt jelenti, hogy felelősségvállalás. Ha van egy aktuális ésszerű gondolata vagy valami, amit meg akar osztani, a legtöbb ember számára Nem akarunk részt venni "- mondta Adams. "Ez azt jelenti, hogy annak a 1000 embernek, akik lehetnek a helyiségben, csak egy maroknyi képviseltetõ lehet a beszélgetésben; mondjuk 10 ember. Mélységesen hiszem, hogy felépíthetünk egy olyan struktúrát, amely a többi 990-et visszajuttatja a beszélgetésbe. és úgy teszi, hogy megéri az idejét."

Hogyan próbálja a google puzzle méregteleníteni az internetet