Emotion AI: En mulig vei til tankepoliti

GettyImages 1273872391 Devrimb


Vi er glade for å bringe Rework 2022 tilbake personlig 19. juli og nesten 20. – 28. juli. Bli med AI- og dataledere for innsiktsfulle samtaler og spennende nettverksmuligheter. Registrer deg i dag!


En nylig VentureBeat-artikkel refererte til Gartner-analytiker Whit Andrews og sa at flere og flere selskaper går inn i en æra hvor kunstig intelligens (AI) er et aspekt av hvert nytt prosjekt. En slik AI-applikasjon bruker ansiktsgjenkjenning for å analysere uttrykk basert på en individuals ansiktsavtrykk for å oppdage deres indre følelser eller følelser, motivasjoner og holdninger.

Denne applikasjonen, kjent som emotion AI eller affective computing, er basert på teorien om “grunnleggende følelser” [$]som sier at mennesker overalt kommuniserer seks grunnleggende indre emosjonelle tilstander – lykke, overraskelse, frykt, avsky, sinne og tristhet – ved å bruke de samme ansiktsbevegelsene basert på vår biologiske og evolusjonære opprinnelse.

På overflaten virker denne antagelsen rimelig, ettersom ansiktsuttrykk er et vesentlig aspekt ved ikke-verbal kommunikasjon.

En fersk artikkel fra det teknologiske industrianalytikerfirmaet AIMultiple sier at emotion AI er en fremvoksende teknologi som “gjør det mulig for datamaskiner og systemer å identifisere, behandle og simulere menneskelige følelser og følelser.” Det er et tverrfaglig felt som blander informatikk, psykologi og kognitiv vitenskap for å hjelpe bedrifter til å ta bedre beslutninger, ofte for å forbedre pålitelighet, konsistens og effektivitet.

Hvordan emotion AI blir brukt

Blant dens nåværende bruksområder er emotion AI-programvare utbredt for å rating videointervjuer med jobbkandidater for egenskaper som «entusiasme», «vilje til å lære», «samvittighetsfullhet og ansvar» og «personlig stabilitet». Programvaren brukes også av grensevakter for å oppdage trusler ved grensekontroller, som et hjelpemiddel for å oppdage og diagnostisere pasienter for humørsykdommer, for å overvåke klasserom for kjedsomhet eller forstyrrelser, og for å overvåke menneskelig atferd below videosamtaler.

Bruken av slik teknologi øker i popularitet. I Sør-Korea, for eksempel, har bruk av emotion AI blitt så vanlig i jobbintervjuer [$] at jobbcoacher ofte får kundene sine til å øve seg på å gå gjennom AI-intervjuer. Startup EmotionTrac markedsfører programvare for advokater for å analysere uttrykk i sanntid for å finne ut hvilke argumenter som vil lande med potensielle jurymedlemmer [$]. Tel Aviv College utviklet en teknikk for å oppdage en løgn gjennom ansiktsmuskelanalyse og hevdet 73 % nøyaktighet. Apple har fått patent for å «modifisere driften av en clever agent som svar på ansiktsuttrykk og/eller følelser».

Emotion AI er basert på pseudovitenskap

Imidlertid er følelses-AI full av tvetydighet og kontroverser, ikke minst fordi forskere har fastslått at ansiktsuttrykk varierer mye mellom kontekster og kulturer. Og det er betydelige bevis [$] at ansiktsbevegelsene varierer for mye til å være konsistente signaler om følelsesmessig betydning. Noen hevder at påståtte universelle uttrykk som gjenkjennelsessystemer er bygget på, ganske enkelt representerer kulturelle stereotypier. Dessuten er det økende bevis for at vitenskapen som følelsesdeteksjon er bygget på er feil, og hevder at det ikke er tilstrekkelig bevis for å støtte tesen om at ansiktskonfigurasjoner nøyaktig, pålitelig og spesifikt gjenspeiler følelsesmessige tilstander.

Sitat Sandra Wachter, futurist Tracey følger twitret teknologien har “på sitt beste ingen bevist grunnlag i vitenskapen og på sitt verste er absolutt pseudovitenskap.”

AI-etikkforsker Kate Crawford går et skritt videre og konkluderer [$] det er ingen gode bevis for at ansiktsuttrykk avslører en individuals følelser. Derfor er beslutninger tatt basert på emosjonell intelligens fulle av usikkerhet.

Denne bekymringen får i det minste noen selskaper til å trekke seg tilbake fra å utvikle eller distribuere emotion AI. Microsoft oppdaterte nylig rammeverket for ansvarlig AI Normal som veileder hvordan de bygger AI-systemer for å sikre mer fordelaktige og rettferdige resultater og fremme pålitelig AI. Et resultat av deres interne gjennomgang av AI-produkter og -tjenester som bruker dette rammeverket, er at funksjoner innen Azure Face “avvikles” som utleder emosjonelle tilstander og identitetsattributter. Ifølge selskapet var avgjørelsen basert på mangel på ekspertkonsensus om hvordan man kan utlede følelser fra utseende, spesielt på tvers av demografi og brukstilfeller, og på grunn av personvernhensyn. Kort sagt, selskapet demonstrerer ansvarlig bruk av AI eller i det minste hvordan man unngår mulige skadelige påvirkninger fra teknologien.

Selv med disse åpenbare bekymringene, øker markedet for emotion AI, og forventes å vokse med en sammensatt årlig vekstrate på 12 % frem til 2028. Venturekapital fortsetter å strømme inn i feltet. For eksempel har Uniphore, et selskap som for tiden tilbyr programvare som inneholder emotion AI, nylig avsluttet 400 millioner greenback i serie E-finansiering med en verdi på 2,5 milliarder greenback.

Pandoras eske

Lignende emotion AI-teknologi har vært i bruk av bedrifter for å forbedre produktiviteten i flere år. En Insider-artikkel rapporterte at arbeidsgivere i Kina bruker “emosjonell overvåkingsteknologi” for å endre arbeidsflyter, inkludert plassering av ansatte og pauser, for å øke produktiviteten og fortjenesten.

Det er ikke naked bedrifter som er interessert i denne teknologien. Ifølge nylig publisert [$] rapporterer, opprettet Institute of Synthetic Intelligence ved Hefei Complete Nationwide Science Heart i Kina et AI-program som leser ansiktsuttrykk og hjernebølger for å “skjelne nivået av aksept for ideologisk og politisk utdanning.” Testpersoner ble vist videoer om regjeringspartiet mens AI-programmet samlet inn og behandlet dataene. Den returnerte da en skåre som indikerte om faget trengte mer politisk utdanning og vurderte om de var tilstrekkelig lojale. I følge The Telegraph-artikkelen inkluderte poengsummen forsøkspersonens “besluttsomhet om å være takknemlig for partiet, lytte til partiet og følge partiet.”

Hver bølge av innovasjon skaper vinnere og tapere og bringer med seg elementer som kan skade deler av befolkningen. Når det gjelder emotion AI, er mange av bruksområdene en kombinasjon av påtrengende overvåking og Taylorisme, som er en tvilsom blanding. Dessuten er feltet basert på et vaklende og sannsynlig falskt vitenskapelig premiss. Likevel er bruken av emotion AI uhindret bortsett fra av opinionen, siden AI-bruk stort sett forblir uregulert rundt om i verden.

Neuroscience Information stiller det relevante spørsmålet om vi ønsker en slik intim overvåking i livene våre, selv om emotion AI kunne konstrueres for nøyaktig å lese alles følelser. Dette spørsmålet går til det sentrale spørsmålet om personvern. Selv om det kan være optimistic brukssaker for emotion AI – forutsatt at det var basert på gyldig vitenskap – presenterer det likevel en glatt skråning som kan føre til Orwellian Thought Police.

Gary Grossman er senior VP for teknologipraksis i Edelman og world leder for Edelman AI Heart of Excellence.

DataDecision Makers

Velkommen til VentureBeat-fellesskapet!

DataDecisionMakers er der eksperter, inkludert de tekniske personene som driver med dataarbeid, kan dele datarelatert innsikt og innovasjon.

Hvis du vil lese om banebrytende ideer og oppdatert informasjon, beste praksis og fremtiden for data- og datateknologi, kan du bli med oss ​​på DataDecisionMakers.

Du kan til og med vurdere å bidra med en egen artikkel!

Les mer fra DataDecisionMakers



admin

Leave a Reply

Your email address will not be published.