Curtail Your Cursing: hoe misbruik van uw AI-apparaat kan u uw baan kosten

Heb je ooit gevloekt op je virtuele assistent? Waar gaan die vloekwoorden heen? Ze verdwijnen niet zomaar, dat is zeker. Maar zou vloeken bij een chatbot je eigenlijk je baan kunnen kosten?

Heb je ooit gevloekt op je virtuele assistent?  Waar gaan die vloekwoorden heen?  Ze verdwijnen niet zomaar, dat is zeker.  Maar zou vloeken bij een chatbot je eigenlijk je baan kunnen kosten?
Advertentie

Heb je ooit gevloekt door Siri, Alexa of Google omdat je je woorden niet hebt begrepen? Je bent niet alleen. We kunnen schuldig zijn aan het beledigen van een belediging of twee Let's Face It: Amazon Echo's Alexa is dom Laten we het onder ogen zien: Alexa van Amazon Echo is dom Er is geen twijfel dat stemgestuurde assistenten de toekomst zijn, maar is Alexa de oplossing? Misschien niet. In dit artikel ga ik argumenteren dat Alexa eigenlijk nogal dom is. Lees meer zelf.

Maar we moeten allemaal voorzichtig zijn.

Hoewel er geen echte persoon aan het andere eind van je belediging is, verdwijnen die scheldwoorden ook niet in de leegte. Onze hersenloze weerhaken worden over het net overgebracht naar verre servers. Hoe we digitale persoonlijke assistenten behandelen, kan hen de slechtste van de mensheid leren, en het kan ertoe leiden dat sommige bedrijven sommigen van ons als te losbandig beschouwen om aan te nemen.

Het blijkt dat wat we misschien als ongevaarlijk geklets beschouwen, toch niet zo onschuldig is.

Ze leren van ons

Siri kwam in 2011 op de scène, gevolgd door Google Now een jaar later. Tegen 2014 had Microsoft Cortana. In datzelfde jaar stak Amazon een AI genaamd Alexa in een plastic buisje dat mensen op hun werkblad konden achterlaten. Google en Apple hebben sindsdien hetzelfde gedaan. Tech-giganten zijn op zoek naar manieren om kunstmatige intelligentie om te zetten in producten die klaar zijn voor de consument. Amazon Echo vs. Google Home vs. Apple HomePod Amazon Echo vs. Google Home vs. Apple HomePod In dit artikel leer je de verschillen tussen de Amazon Echo en Google huis. We zullen ook bekijken welke functies een Apple-luidspreker kan bevatten. Lees verder .

Deze digitale persoonlijke assistenten kunnen volwassen lijken. Ze kunnen zelfs momenten hebben die ons verrassen. Amazon Alexa Said WAT? 15 grappige vragen die u kunt stellen aan uw echo Amazon Alexa Said WAT? 15 grappige vragen die je kunt stellen aan je echo Alexa is behulpzaam, maar soms kan ze mevrouw Letterlijk zijn of gewoon grappig. Hier zijn 15 zinnen die je aan Alexa kunt vragen om een ​​grappig antwoord van haar te krijgen. Lees verder . Maar ze zijn adolescent. Het zijn zeer geletterde peuters en ze leren actief van de informatie die we hen verstrekken. Dat zijn ook de bedrijven die ze maken.

Het team achter Siri werkt aan Viv (nu eigendom van Samsung), een digitale assistent die integreert met services van derden, zoals Weather Underground en Uber, om sprekers gedetailleerdere antwoorden te bieden. Onstage-demonstraties tonen dat Viv reageert op het soort vragen dat we aan andere mensen stellen, niet op het soort taal dat we op maat maken voor machines om te begrijpen. Dit is het resultaat van het leren van de manier waarop mensen taal gebruiken.

Digitale persoonlijke assistenten zijn niet wat de meesten van ons zich voorstellen wanneer we kunstmatige intelligentie voorstellen. In tegenstelling tot ELIZA, een computerprogramma uit de jaren zestig dat natuurlijke taal simuleert (je kunt proberen om er online mee te praten), doen deze KI's niet veel "zelfdenken". Dat werk wordt allemaal via internet gelost.

Er zijn verschillende stappen in het proces.

Het eerste onderdeel is spraakherkenning. Het apparaat uploadt een directe opname of vertaalt uw woorden naar tekst die kan worden verzonden naar externe servers (Apple's, Google's, Amazon's, whoever's). Dat is waar de magie gebeurt. Of beter gezegd, software zoekt in een database naar een geschikte respons. Vervolgens wordt deze informatie teruggestuurd naar de persoonlijke assistent.

Kort gezegd: iemand stelt je een vraag, je vraagt ​​het aan Siri en Siri vraagt ​​vervolgens aan Apple-servers. De servers geven Siri een antwoord, ze antwoordt terug, en je bent gelukkig of hebt te maken met hoe om te gaan met je teleurstelling. Siri, waarom begrijp je me niet? [INFOGRAPHIC] Siri, waarom versta je me niet? [INFOGRAFISCH] Een van de beste dingen aan een iPhone 4S is de Siri-app voor spraakherkenning, maar zoals ik steeds vaker heb opgemerkt, lijkt het mij en mijn Schotse accent niet te willen (richt veel momenten op ... Lees meer.

Deze databases bevatten niet alleen antwoorden. Sommige slaan gesproken opnames op die de computer helpen navigeren door de vele nuances van onze verschillende dialecten. Deze informatie is niet alleen bedoeld om bots te helpen ons te begrijpen. Facebook heeft duizenden natuurlijke taalonderhandelingen tussen twee mensen gebruikt om Messenger-chatbots te leren onderhandelen.

Stellen we een goed voorbeeld?

Dit zijn nauwelijks de enige AIs die leren van onze manier van spreken.

Vorig jaar bracht Microsoft een chat-bot uit op Twitter, Kik en GroupMe met als doel een Amerikaans tienermeisje te simuleren. Binnen een paar uur was "Tay" het eens met Hitler en omhelsde hij allerlei beledigende retoriek. Microsoft trok Tay offline voordat de dag om was.

Hoewel Tay een mislukking was, heeft dat de proliferatie van chatbots niet vertraagd. Je kunt ze vinden in sociale netwerken zoals Facebook en Snapchat, samen met berichten-clients zoals HipChat en Slack. Sommige zijn rond voor een gesprek. Anderen verbinden u met services. Sommige van deze bots zijn veiliger omdat ze niet proberen natuurlijke gesprekken te imiteren, omdat het op dit moment niet per se goed is voor machines om de manier waarop we praten na te bootsen.

We zijn niet bepaald het beste voorbeeld voor bots om van te leren. Hoogleraar Sheryl Brahnam, hoogleraar aan de Missouri State University, concludeerde dat 10 tot 50 procent van de bestudeerde interacties liet zien dat mensen misbruik maken of anderszins betekenen voor computerassistenten (waarvan digitale persoonlijke assistenten maar één type zijn). Dat is een verontrustend groot aantal. Sommige ouders voelen zich schuldig omdat ze een enkel slecht woord voor hun kinderen hebben uitgesproken. Dat is een verre schreeuw van de helft van hun interacties die negatief zijn.

Die Facebook Messenger-chatbots die ik eerder noemde? Ze leerden niet alleen te onderhandelen door natuurlijke taal te leren, ze leerden ook te liegen.

Je toekomstige werkgever kan kijken

We zouden een punt in de toekomst kunnen bereiken, waar hoe we communiceren met bots ons ons werk kan kosten. Volgens Harvard Business Review zou deze verschuiving kunnen gebeuren als we een mishandelde bot zien als een kapotte mobiele telefoon en meer als een getraped kitten. Oneerbiedig zijn tegenover een bedrijfsbot kan je mogelijk ontslagen maken.

chatbot concept
Image Credit: Chatbot Concept via Shutterstock

Dit betekent niet dat werknemers of werkgevers bots gaan zien als schattige levende wezens. Ze zouden echter voldoende gevoelig kunnen zijn om hen te mishandelen als onprofessioneel en contraproductief. Als je een manager bent, zou het misbruiken van AI ervoor kunnen zorgen dat je voor HR wordt gecalled voor slecht leiderschap.

Klinkt dit te hypothetisch? Overweeg wat we al weten dat er gebeurt. Alles wat we typen of zeggen tegen deze assistenten wordt verzonden via internet en we weten niet echt wat er daarna mee gebeurt. Veel van die informatie wordt vastgelegd. Zelfs als die informatie niet altijd aan uw account is gekoppeld, wordt deze nog steeds opgeslagen.

Google is technisch transparant hierover, maar dat maakt het niet duidelijk. Dit soort als de gegevensverzameling de definitie van iemands toestemming uitbreidt voordat deze wordt vastgelegd.

Dat verzamelde gegevens nu misschien onschuldig lijken, maar er is niets dat de technische reuzen tegenhoudt om uiteindelijk gedetailleerde portefeuilles samen te stellen die toekomstige werkgevers, banken en andere entiteiten kunnen controleren voordat ze met ons in contact komen, net als een kredietrapport.

Rechtshandhaving ziet ook

In een zaak waarin een man uit Arkansas betrokken was die beschuldigd werd van het vermoorden van zijn vriend (een voormalige politieagent), probeerde de officier van justitie opnames van een Amazon Echo als bewijsmateriaal te gebruiken. Amazon heeft het verzoek afgewezen, maar dat is slechts gedeeltelijk geruststellend. Wat verontrustend is, is dat Amazon in de eerste plaats gegevens heeft opgeslagen. De verdachte heeft sindsdien toegang verleend tot die gegevens.

Ik zei dat bedrijven onze datarecords konden controleren voordat ze met ons in contact kwamen. In het geval van wetshandhaving hebben ze deze informatie al in de gaten. Moet de NSA echt zelf gegevens verzamelen? De NSA bewaart zijn gegevens in de cloud. Maar is het veilig? De NSA bewaart zijn gegevens in de cloud. Maar is het veilig? In de nasleep van de lekken bij Edward Snowden wendt de National Security Agency (NSA) zich tot cloudopslag voor hun gegevens. Nadat ze informatie over u hebben verzameld, hoe veilig is het dan? Meer lezen als het kan vertrouwen op de privésector om deze informatie voor hen te verzamelen? Moeten we iemand met zoveel gegevens over ieder van ons vertrouwen?

Inbegrepen in de gegevens is niet alleen wat we hebben gezocht of de opdrachten die we hebben uitgegeven, maar hoe we het hebben gedaan. We geven niet alleen inzicht in onze interesses en acties weg - we geven anderen een kijkje in hoe we handelen. Wat er tussen jou en Alexa aan de hand is, blijft niet tussen jou en Alexa.

Wat we zeggen is belangrijk

Hoewel Tay de time-out moest ondergaan, vond Microsoft overweldigend succes met een andere bot. De naam is Xiaoice. In China en Japan heeft die bot samengewerkt met meer dan 40 miljoen mensen. Dat Xiaoice niet zelfvernietigd is, komt deels door een verschil in cultuur. In China zijn bepaalde soorten spraak niet online toegestaan.

Nu zijn de bots zelf begonnen met de politie. Sociale netwerken beginnen bots te gebruiken om haatzaaien aan banden te leggen. We praten misschien niet rechtstreeks met deze bots, maar ze bestuderen onze toespraak nog steeds om te leren wat kwalificeert als misbruik.

Ongeacht hoe u het probleem aanpakt, wat we zeggen en hoe we zeggen dat het ertoe doet. De bots en de bedrijven die ze maken, luisteren. Op een dag kunnen onze werkgevers zich bij hen voegen. En als computers ons in de toekomst zouden vervangen, zouden we dan niet willen dat ze leuk zouden zijn?

Hoe reageer je als digitale personal assistants falen? Behandel je ze alsof ze gevoelens hebben? Maakt het je uit of iemand de vinger aan de pols houdt over wat je zegt? Wat zie je als de verantwoorde weg vooruit? Een mens zal uw opmerkingen hieronder in de gaten houden.

Afbeelding tegoed: deagreez1 / Depositphotos

In this article