Tartalomjegyzék:
- 1 Instagram megkérdőjelezhető hirdetései
- 2 Célzott rasszista hirdetés
- 3 A Facebook éve a beszámolóban
- 4 Tesla Autopilot ütközés
- 5 Tay the Rasist Microsoft AI
- 6 gratuláció az Ön (nem létező) babájához!
- 7 Az Amazon „ajánlja” a bombaanyagokat
- 8 Google Maps Gets Rasist
- 9 Google Címkézi az embereket mint Gorillákat
- 10 Robot Security Hits Child, öngyilkos
Videó: [TOP 10] LEGVESZÉLYESEBB HACKER A VILÁGON ✔ Aki Hatalmas Káoszt Okozott! [LEGJOBB] (November 2024)
A technológia nemcsak a geek számára szól, hanem mindenki számára, és ez nagyon sok ember. Csak néhány olyan vállalat, amely a legtöbb hardvert és szoftvert irányítja - az Apple-től az Amazon-ig a Facebook-ig, a Microsoft-ig és a Google-ig - csak annyit tudnak tenni a pénztárca és a szemgolyó ellenőrzése érdekében. Mi a szegény, óriási vállalat? Az algoritmusokra támaszkodva hozhat néhány fontos döntést.
Az Oxford Living Dictionaries algoritmust úgy határozza meg, mint "egy folyamatot vagy szabálykészletet, amelyet be kell tartani a számításokban vagy más problémamegoldó műveletekben, különösen egy számítógép". Kiváló példa erre a Facebook hírcsatorna. Senki sem tudja, hogy működik, hogy néhány bejegyzésed megjelenik-e néhány ember hírcsatornáin, de a Facebook nem. Vagy mi lenne az Amazon, ha megmutatná a kapcsolódó könyveket? Kapcsolódó keresések a Google-on? Mindez szorosan őrzött titok, amelyek sok munkát végeznek a vállalat számára, és nagy hatással lehetnek az életedre.
De az algoritmusok nem tökéletesek. Megbuknak, és néhányuk látványosan kudarcot vall. Adja hozzá a szociális média tükröződését, és egy apró zavar nagyon gyors PR rémálommá válhat. Ritkán rosszindulatú; ezeket általában a New York Times „Frankenstein pillanatoknak” nevezi, ahol a valaki által létrehozott lény szörnyré válik. De megtörténik, és az alábbiakban összeállítottunk néhány legfrissebb példát. Az alábbiakban tegye közzé kedvenceit.
-
4 Tesla Autopilot ütközés
A legtöbb algoritmikus snafus messze nem végzetes, ám az önvezető autók világa egy teljesen új veszélyességi szintet jelentene. Legalább egyszer ez megtörtént. Egy Florida állambeli Tesla-tulajdonos a félig autonóm üzemmódot (Autopilot) használta, és egy traktor utánfutóba zuhant, amely levágta őt. A Tesla gyorsan kiadott frissítéseket, de valójában az Autopilot üzem hibája volt? A Nemzeti Autópálya Közlekedésbiztonsági Igazgatósága szerint valószínűleg nem, mivel a rendszer megköveteli a sofőrtől, hogy figyelmeztesse a problémákat, amint az a fenti videóban látható. Most a Tesla megakadályozza az Autopilot bekapcsolását, még akkor is, ha a sofőr nem reagál a vizuális útmutatásokra.
1 Instagram megkérdőjelezhető hirdetései
A The Guardian jelentése szerint a Facebook szereti hirdetéseit megjeleníteni Instagram-szolgáltatásán, saját felhasználói bejegyzésével. Az algoritmus azonban rossz "fényképet" választott, hogy Olivia Solon barátaival, aki maga a The Guardian riportereje, eljuttassa barátaihoz, és kiválasztotta egy egy éves képernyőképet, amelyet fenyegető e-mailben készített.
2 Célzott rasszista hirdetés
A múlt héten a ProPublica arról számolt be, hogy a Facebook lehetővé tette a hirdetők számára, hogy megtámadható embercsoportokat célozzanak meg, például a "zsidó gyűlölők". A webhely 30 dollárt fizetett egy olyan hirdetésért (fent), amely olyan közönséget célozott meg, amely pozitívan reagál olyan dolgokra, mint például "miért tönkreteszik a zsidók a világot" és "Hitler nem tett semmi rosszat". 15 percen belül jóváhagyták.
A pala hasonlóan sértő kategóriákat talált, és újabb elemré vált a hosszú tárgysorban, amelyet a Facebooknak nemcsak bocsánatot kellett kérnie, hanem ígéretet is tett valamilyen emberi felügyelet mellett. Tudod, például amikor 100 000 dollár értékű választási hirdetéseket tett Oroszország számára.
A Facebook egyik bejegyzésében a COO Sheryl Sandberg elmondta, hogy "undorodott és csalódott e szavakat", és bejelentette a hirdetési eszközök megváltoztatását.
A BuzzFeed ellenőrizte, hogy a Google hogyan fogja kezelni a hasonló dolgokat, és úgy találta, hogy könnyű beállítani a rasszisták és a bigotok számára is célzott hirdetéseket. A Daily Beast megnézte ezt a Twitteren, és több millió hirdetést talált olyan kifejezésekkel, mint például a „náci”, a „nedves hátra” és az N szó.
3 A Facebook éve a beszámolóban
Ha a Facebook-on vagy, akkor kétségtelenül látta az év végi, algoritmus által generált videókat, amelyek az elmúlt 12 hónap legfontosabb eseményei voltak. Vagy néhánynak a gyenge fényviszonyok. 2014-ben az egyik apa képet látott késő lányáról, míg egy másik otthonában pillanatképeket lángolt. További példák az emberek, akik késő háziállataikat látják, a szülők hamujával teli urnák és az elhunyt barátok. 2015-re a Facebook megígérte, hogy kiszűrheti a szomorú emlékeket.
5 Tay the Rasist Microsoft AI
Pár évvel ezelőtt a csevegőrobotoknak viharokkal kellett elviselniük a világot, felváltva az ügyfélszolgálatot és az online világot csevegő helyszínévé téve az információkat. A Microsoft 2016 márciusában reagált egy Tay nevű AI elutasításával, amelyen az emberek, különösen a 18 és 24 év közötti emberek kapcsolatba léphetnek a Twitteren. Tay viszont nyilvános tweeteket készít a tömegek számára. De kevesebb, mint 24 órán belül, a fogakkal szájolt tömegből tanulva, Tay teljes rasszistá vált. A Microsoft azonnal lerontotta Tay-t; 2016 decemberében új, Zo nevű AI-ként tért vissza "erős ellenőrzésekkel és egyensúlyokkal a helyén, hogy megvédje őt a kizsákmányolástól".
6 gratuláció az Ön (nem létező) babájához!
Teljes nyilvánosságra hozatal: Ahogy ezt írom, a feleségem valójában terhes. Mindketten megkaptuk ezt az e-mailt az Amazon-tól, mondván, hogy valaki vásárolt nekünk valamit a baba nyilvántartásból. Még nem tettük nyilvánosságra, de nem volt olyan sokkoló. Időközben több millió másik Amazon-ügyfél is kapott ugyanezt a jegyzetet, köztük néhány regisztráció nélkül… vagy úton egy csecsemőt. Lehet, hogy része volt egy adathalász programnak, de nem az. Az Amazon elkapta a hibát, és nyomon követési bocsánatkérő e-mailt küldött. Addigra sokan panaszkodtak, hogy ez helytelen vagy érzéketlen. Ez kevesebb algoritmus volt, mint a fényes e-mail szerver, de megmutatja, hogy mindig könnyű sérteni.
7 Az Amazon „ajánlja” a bombaanyagokat
Mindenki ugrott rá, miután az Egyesült Királyság Channel 4 News beszámolt róla, a Fox News- tól a New York Times-ig . Állítólag azt találta, hogy az Amazon „gyakran együtt vásárolt” funkciója megmutatja az embereknek, mi szükséges egy bomba felépítéséhez, ha az egyik összetevővel kezdik, amelyet az oldal nem nevezne meg (ez kálium-nitrát volt).
Az Amazon algoritmusa az volt, hogy a vevőknek megmutatta a kis mennyiségű fekete por előállításának összetevőit, ami az Egyesült Királyságban teljesen legális, és mindenféle célra felhasználható - például tűzijátékokhoz -, amire egy hihetetlenül jól átgondolt információ rámutatott- ki az Idle Words blogbejegyzéséből. Ehelyett az összes jelentés arról szól, hogy az Amazon hogyan vizsgálja meg, mert ezt kell mondaniuk a terrorizmustól és logikától félt világban.
8 Google Maps Gets Rasist
2015-ben a Google-nak bocsánatot kellett kérnie, amikor a Google Maps az „n ***** king” és az „n *** a house” kifejezésre kereste a Fehér Házot, amelyet akkoriban még Barack Obama is elfoglalt. Ez egy "Googlebomb" eredményeként jött létre, amikor a keresőmotor felveszi az újra és újra használt kifejezést, amelyet "népszerűnek" jelöl, tehát az eredmények a keresés tetejére kerülnek. Így érte el a "Santorum" szó új meghatározását.
9 Google Címkézi az embereket mint Gorillákat
A Google Fotók egy csodálatos alkalmazás / szolgáltatás, amely tárolja az összes képet és még sok minden mást. Az egyik ilyen dolog az emberek és dolgok fotókon történő automatikus címkézése. Arcfelismerést használ az embereknek, hogy szűkítsék őket a megfelelő személyre. Még egy mappám is van az összes kutyámról, és egyiket sem címkéztem. Annak ellenére, hogy működik, rettenetes volt, amikor 2015-ben a Google-nak bocsánatot kellett kérnie Jacky Alciné számítógépes programozótól, amikor őt és egy barátját - mindketten feketét - a szolgáltatás gorillákként azonosította. "Megdöbbentünk és őszinte sajnáljuk, hogy ez történt" - mondta a Google a PCMag-nak.
10 Robot Security Hits Child, öngyilkos
A Knightscope K5 nevű autonóm biztonsági robotokat készít az iskolák, bevásárlóközpontok és környékek járőrzésére. Az öt láb magas Dalek-esque-kúpok a kerekeken - amelyek hitelük szerint még mindig béta tesztelés alatt állnak - inkább a bűncselekmény megakadályozására, hanem a hibákra utalnak.
Például 2016 júliusában a K5 a Stanford bevásárlóközpontban, Palo Altóban futott egy 16 hónapos lábán, és a Knightscopenak hivatalosan kellett elnézést kérnie. Ugyanazon helyszínen - talán ugyanazon droidnál - részeg ember volt egy parkolóban megrongálódva, de legalább nem ez volt a K5 hibája. A zsűri még mindig nem működik a K5 egységnél, a Georgetown Waterfront, irodai / bevásárló komplexum alatt, Washington DC-ben… állítólag egy hét után a munka után állt egy lépcsőn egy vízkútba. Ez nem jó a Skynet hadseregében.