Tartalomjegyzék:
Videó: Inside with Brett Hawke: Lenny Krayzelburg (November 2024)
A Google nemrégiben megismételte a Duplex szolgáltatást, hogy kifejezetten felfedje az étterem vendéglátóinak és a szalon személyzetének, hogy beszélnek a Google Asszisztenssel és nyilvántartásba veszik őket.
A Duplex finomításával a Google pihenteti a kritikát. De miért olyan fontos, hogy a vállalatok átláthatóak legyenek a madárinfluenza-ügynököik identitásában?
Az AI asszisztensek gonosz célokat szolgálhatnak?
"Egyre nagyobb az elvárás, hogy amikor üzleti üzenetküldést kezdeményez, kapcsolatba léphet egy AI-alapú csevegőbottal. De amikor valójában hallatszik egy emberi beszédet, általában arra számít, hogy valódi ember lesz" - mondja Joshua March, vezérigazgató. of Coversocial.
Március azt mondja, hogy az elején az embereknek rendszeresen értelmes kapcsolatba lépünk az AI-vel, és a helyszínen elért eredmények arra késztetik a félelmet, hogy a hackerek rosszindulatú célokat szolgálhatnak az AI-ügynökökkel.
"A legjobb esetben a rosszindulatú szándékú botok megsérthetik az embereket" - mondja Marcio Avillez, a Cujo AI Networks főigazgatója. Marcio hozzáteszi, hogy súlyosabb fenyegetésekkel szembesülhetünk. Például az AI megtanulhat bizonyos nyelvi mintákat, megkönnyítve ezzel a technológia alkalmazását az emberek manipulációjához, az áldozatok megszemélyesítéséhez, valamint a színpadi látványt (hanghalász) támadásokhoz és hasonló tevékenységekhez.
Sok szakértő egyetért azzal, hogy a veszély valódi. A CIO oszlopában Steven Brykman ismertette a technológiák, például a Duplex felhasználásának különféle módjait: "Legalább az emberek hívására az embereknél van még egy korlátozó tényező - az ember csak annyit képes hívni óránként, naponta. Az embereket fizetni kell, szünetet kell tartani és így tovább. De egy AI chatbot szó szerint korlátlan számú hívást kezdeményezhet korlátlan számú ember számára, korlátlanul sokféle módon!"
Ebben a szakaszban a hallott események többsége spekuláció; még mindig nem tudjuk, hogy mennyire súlyosak és súlyosak azok a fenyegetések, amelyek a hangsegédek megjelenésével járhatnak. De a hang alapú asszisztensekkel kapcsolatos esetleges támadások közül sokot meg lehet enyhíteni, ha a technológiát kínáló cég kifejezetten kommunikál a felhasználókkal, amikor egy AI ügynökkel lépnek kapcsolatba.
Adatvédelmi aggályok
Egy másik probléma a technológiák, például a Duplex használatával kapcsolatban a magánélet potenciális kockázata. Az AI-alapú rendszereknek felhasználói adatokra van szükségük az algoritmusok kiképzéséhez és fejlesztéséhez, és a Duplex sem kivétel. Nagyon fontos, hogy hogyan tárolja, biztonságos és használja ezeket az adatokat.
Új szabályozások jelennek meg, amelyek megkövetelik a társaságoktól, hogy a felhasználók kifejezett hozzájárulását megszerezzék, amikor információikat szeretnék gyűjteni, ám ezeket elsősorban olyan technológiák lefedésére tervezték, ahol a felhasználók szándékosan kezdeményeznek interakciókat. Ennek értelme van az AI-asszisztenseknek, mint például a Siri és az Alexa, akiket a felhasználó aktivál. Nem világos azonban, hogy az új szabályok hogyan vonatkoznának az AI-asszisztensekre, akik anélkül érkeznének a felhasználókhoz, hogy bekapcsolnák őket.
A cikkben Brykman hangsúlyozza a szabályozási biztosítékok bevezetésének szükségességét, például olyan törvényeket, amelyek előírják a társaságok számára, hogy nyújtsák be az AI ügynök jelenlétét, vagy egy olyan törvényt, amely szerint, amikor egy chatbotról kérdezi, hogy ez egy chatbot, azt kell mondania: "Igen, Chatbot vagyok. " Ezek az intézkedések lehetőséget adnának az emberi beszélgetőpartnernek, hogy kikapcsoljon, vagy legalábbis eldöntse, szeretne-e interakcióba lépni egy AI-rendszerrel, amely hangját rögzíti.
Még ilyen törvényekkel sem a magánélettel kapcsolatos aggályok nem szűnnek meg. "A technológia jelenlegi inkarnációjában azt a legnagyobb kockázatot látom, hogy még több adatot fog adni a Google-nak a magánéletünkről, amiben még nem volt. Addig, amíg csak tudtak az online kommunikációnkról; most valódi betekintést kapnak a valós beszélgetéseink "- mondja Vian Chinner, a Xineoh alapítója és vezérigazgatója.
A közelmúltban a nagy technológiai cégeket érintő adatvédelmi botrányok, amelyekben a felhasználói adatokat megkérdőjelezhető módon használják fel saját haszonszerzésre, bizalmatlanságot keltettek abban, hogy több ablakot adnak az életünkhöz. "Az emberek általában úgy érzik, hogy a Szilícium-völgy nagyvállalatai készletként tekintik őket, nem vásárlóik helyett, és nagyfokú bizalmatlanságot mutatnak szinte bármi, amit csinálnak, függetlenül attól, hogy az úttörő és az élet megváltoztatása végül végbemenne" - mondja Chinner.
Funkcionális hibák
Annak ellenére, hogy van természetes hangja és hangja, és olyan emberi hangokat használ, mint például "mmhm" és "ummm", a Duplex nem különbözik a többi kortárs AI technológiától, és ugyanazon korlátozásoktól szenved.
Függetlenül attól, hogy hangot vagy szöveget használnak felületként, az AI ügynökök képesek megoldani a speciális problémákat. Ezért nevezzük őket „szűk AI-nek” (szemben az „általános AI-vel” - a mesterséges intelligencia típusával, amely részt vehet az általános problémamegoldásban, ahogyan az emberi elme teszi). Noha a keskeny AI kivételesen jó a feladatok elvégzéséhez, amelyre be van programozva, látványosan megbukhat, ha olyan forgatókönyvet kap, amely eltér a problémakörétől.
"Ha a fogyasztó úgy gondolja, hogy egy emberrel beszél, akkor valószínűleg valamit kérdez, ami kívül esik az AI normál szkriptén, és frusztráló választ fog kapni, amikor a bot nem érti" - mondja a Conversocial March.
Ezzel szemben, ha valaki tudja, hogy beszél egy olyan AI-vel, akit arra késztettek, hogy egy étteremben asztalokat foglaljon, akkor megpróbálja elkerülni a nyelv használatát, amely megzavarja az AI-t, és váratlan módon viselkedik, különösen, ha nekik egy ügyfél.
"A Duplexből hívásokat fogadó alkalmazottaknak egyértelmű bevezetést kell kapniuk arról is, hogy ez nem valódi ember. Ez elősegítené a személyzet és az AI közötti kommunikáció konzervatívabb és egyértelműbb" - mondja Avillez.
Ennélfogva mindaddig, amíg (és ha) kifejlesztünk olyan intelligencia-információs rendszert, amely az emberi intelligenciával megegyezően képes teljesülni, maguk a vállalatok érdeke, hogy átláthatóak legyenek az intelligencia-felhasználásuk területén.
A nap végén a Duplexhez hasonló hangszolgáltatók félelmét részben az okozza, hogy újok, és mi még mindig hozzászokunk, hogy új beállításokban és használati esetekben találkozzunk velük. "Legalább néhány embernek nagyon kellemetlennek tűnik az a gondolat, hogy egy robottal való beszélgetés nélkül tudjuk, így egyelőre valószínűleg közzé kell tenni a beszélgetésben részt vevő partnereknek" - mondja Chinner.
- Az AI (szintén) a jó erő Az AI (szintén) a jó erő
- Amikor az AI elhúzza a vonalot a valóság és a fikció között, amikor az AI elhúzza a sort a valóság és a fikció között
- A mesterséges intelligencia torzító problémával rendelkezik, és ez a mi hibánk A mesterséges intelligencia torzító problémával rendelkezik, és ez a mi hibánk
De hosszú távon hozzászokunk ahhoz, hogy intelligensebb és intelligensebb AI ügynökökkel lépjen kapcsolatba azokkal a feladatokkal, amelyeket korábban az emberi szereplők kizárólagos domainjének tartottak.
"A következő generációt nem érdekli, ha egy AI-vel vagy egy emberrel beszélnek, amikor egy üzlettel kapcsolatba lépnek. Csak gyorsan és egyszerűen akarják megkapni a válaszukat, és Alexa-val beszélgetni fognak. Ha egy emberrel beszélni fogsz, sokkal frusztrálóbb lesz, mint pusztán a botokkal való kölcsönhatás "- mondja a Conversocial March.