Hvorfor mangfold bør ha en kritisk innvirkning på personvernet

business meeting.GettyImages 607477465

[ad_1]

Klarte du ikke å delta på Rework 2022? Sjekk ut alle toppmøtene i vårt on-demand-bibliotek nå! Se her.


California Privateness Rights Act (CPRA), Virginia Shopper Knowledge Safety Act (VCDPA), Canadas Shopper Privateness Safety Act (CPPA) og mange flere internasjonale forskrifter markerer alle betydelige forbedringer som har blitt gjort i personvernområdet de siste årene. I henhold til disse lovene kan bedrifter møte alvorlige konsekvenser for feilhåndtering av forbrukerdata.

For eksempel, i tillegg til de regulatoriske konsekvensene av et datainnbrudd, tillater lover som CCPA forbrukere å holde virksomheter direkte ansvarlige for datainnbrudd below en privat rett til å deal with.

Selv om disse forskriftene absolutt skjerper konsekvensene rundt misbruk av forbrukerdata, er de fortsatt ikke nok – og vil kanskje aldri være nok – til å beskytte marginaliserte samfunn. Nesten tre fjerdedeler av netthusholdninger frykter for deres digitale sikkerhet og personvern, og de fleste bekymringene tilhører undertjente befolkninger.

Marginaliserte grupper blir ofte negativt påvirket av teknologi og kan møte stor fare når automatiserte beslutningsverktøy som kunstig intelligens (AI) og maskinlæring (ML) utgjør skjevheter mot dem eller når dataene deres blir misbrukt. AI-teknologier har til og med vist seg å opprettholde diskriminering i valg av leietakere, finansielle utlån, ansettelsesprosesser og mer.

Demografisk skjevhet i AI- og ML-verktøy er ganske vanlig, siden designgjennomgangsprosesser i stor grad mangler menneskelig mangfold for å sikre at prototypene deres er inkluderende for alle. Teknologiselskaper må utvikle sine nåværende tilnærminger til bruk av AI og ML for å sikre at de ikke påvirker undertjente samfunn negativt. Denne artikkelen vil utforske hvorfor mangfold må spille en kritisk rolle i personvernet og hvordan bedrifter kan skape mer inkluderende og etiske teknologier.

Truslene som marginaliserte grupper står overfor

Undertjente samfunn er utsatt for betydelige risikoer når de deler dataene sine på nettet, og dessverre kan personvernlovgivningen ikke beskytte dem mot åpenbar diskriminering. Selv om gjeldende regelverk var så inkluderende som mulig, er det mange måter disse befolkningene kan bli skadet på. Datameglere kan for eksempel fortsatt samle inn og selge en individuals geolokalisering til grupper som retter seg mot demonstranter. Informasjon om en enkeltpersons deltakelse i en demonstrasjon eller protest kan brukes på en rekke påtrengende, uetiske og potensielt ulovlige måter.

Selv om dette scenariet naked er hypotetisk, har det vært mange tilfeller i den virkelige verden hvor lignende situasjoner har oppstått. En forskningsrapport fra 2020 beskrev datasikkerheten og personvernrisikoen LHBTQ-personer blir utsatt for på datingapper. Rapporterte trusler inkluderte åpenbar statlig overvåking, overvåking gjennom ansiktsgjenkjenning og appdata delt med annonsører og datameglere. Minoritetsgrupper har alltid vært utsatt for slike risikoer, males selskaper som gjør proaktive endringer kan bidra til å redusere dem.

Mangelen på mangfold i automatiserte verktøy

Selv om det har vært gradvis fremgang i diversifiseringen av teknologiindustrien de siste årene, er det nødvendig med et grunnleggende skifte for å minimere den vedvarende skjevheten i AI- og ML-algoritmer. Faktisk rapporteres 66,1 % av dataforskerne å være hvite og nesten 80 % er menn, noe som understreker en alvorlig mangel på mangfold blant AI-team. Som et resultat trenes AI-algoritmer basert på synspunktene og kunnskapen til teamene som bygger dem.

AI-algoritmer som ikke er opplært til å gjenkjenne visse grupper av mennesker, kan forårsake betydelig skade. For eksempel ga American Civil Liberties Union (ACLU) ut forskning i 2018 som beviste at Amazons “Rekognition” ansiktsgjenkjenningsprogramvare feilaktig matchet 28 amerikanske kongressmedlemmer med mugshots. Imidlertid var 40 % av falske treff var fargede, til tross for at de naked utgjorde 20 % av kongressen. For å forhindre fremtidige tilfeller av AI-bias, må bedrifter revurdere prosessene for designgjennomgang for å sikre at de er inkluderende for alle.

En inkluderende designgjennomgangsprosess

Det er kanskje ikke en eneste kilde til sannhet for å dempe skjevheter, males det er mange måter organisasjoner kan forbedre sin designgjennomgangsprosess på. Her er hearth enkle måter teknologiorganisasjoner kan redusere skjevhet i produktene sine.

1. Nonetheless utfordrende spørsmål

Å utvikle en liste over spørsmål å stille og svare på below designgjennomgangsprosessen er en av de mest effektive metodene for å lage en mer inkluderende prototype. Disse spørsmålene kan hjelpe AI-team med å identifisere problemer de ikke hadde tenkt på før.

Viktige spørsmål inkluderer om datasettene de bruker inneholder nok information til å forhindre bestemte typer skjevheter eller om de har administrert tester for å bestemme kvaliteten på dataene de bruker. Å stille og svare på vanskelige spørsmål kan gjøre det mulig for dataforskere å forbedre prototypen sin ved å avgjøre om de trenger å se på tilleggsdata eller om de trenger å ta med en tredjepartsekspert inn i designgjennomgangsprosessen.

2. Ansett en personvernekspert

I likhet med alle andre etterlevelsesrelaterte profesjonelle, ble personverneksperter opprinnelig sett på som innovasjonsflaskehalser. Ettersom flere og flere dataforskrifter har blitt innført de siste årene, har imidlertid personvernansvarlige blitt en kjernekomponent i C-suiten.

Interne personvernpersonell er avgjørende for å fungere som eksperter i designgjennomgangsprosessen. Personverneksperter kan gi en objektiv mening om prototypen, hjelpe med å introdusere vanskelige spørsmål som dataforskere ikke hadde tenkt på før og bidra til å skape inkluderende, trygge og sikre produkter.

3. Utnytt ulike stemmer

Organisasjoner kan bringe forskjellige stemmer og perspektiver til bordet ved å utvide ansettelsesarbeidet til å inkludere kandidater fra forskjellige demografiske grupper og bakgrunner. Denne innsatsen bør strekke seg til C-suiten og styret, da de kan stå som representanter for ansatte og kunder som kanskje ikke har en stemme.

Økt mangfold og inkludering i arbeidsstyrken vil gi mer rom for innovasjon og kreativitet. Forskning viser at rasemessige ulike selskaper har en 35 % høyere sjanse for å overgå konkurrentene sine, mens organisasjoner med høye kjønnsforskjellige lederteam tjener 21 % høyere fortjeneste enn konkurrentene.

4. Gjennomfør opplæring i mangfold, likeverd og inkludering (DE&I).

Kjernen i enhver mangfoldig og inkluderende organisasjon er et sterkt DE&I-program. Gjennomføring av workshops som utdanner ansatte om personvern, AI-bias og etikk kan hjelpe dem å forstå hvorfor de bør bry seg om DE&I-initiativer. For tiden er det naked 32 % av bedriftene som håndhever et DE&I-opplæringsprogram for ansatte. Det er tydelig at DE&I-initiativer må bli en høyere prioritet for at sanne endringer skal gjøres i en organisasjon, så vel som dens produkter.

Fremtiden for etiske AI-verktøy

Mens noen organisasjoner er på god vei til å lage tryggere og sikrere verktøy, må andre fortsatt gjøre retailer forbedringer for å lage produkter som er helt uten skjevheter. Ved å inkorporere de ovennevnte anbefalingene i sin designgjennomgangsprosess, vil de ikke naked være noen få skritt nærmere å skape inkluderende og etiske produkter, males de vil også kunne øke sin innsats for innovasjon og digital transformasjon. Teknologi kan være til stor nytte for samfunnet, males det vil være på hver enkelt bedrift å gjøre dette til en realitet.

Veronica Torres, verdensomspennende personvern- og regulatorisk rådgiver hos Jumio.

DataDecision Makers

Velkommen til VentureBeat-fellesskapet!

DataDecisionMakers er der eksperter, inkludert de tekniske personene som driver med dataarbeid, kan dele datarelatert innsikt og innovasjon.

Hvis du vil lese om banebrytende ideer og oppdatert informasjon, beste praksis og fremtiden for data- og datateknologi, kan du bli med oss ​​på DataDecisionMakers.

Du kan til og med vurdere å bidra med en egen artikkel!

Les mer fra DataDecisionMakers

[ad_2]

admin

Leave a Reply

Your email address will not be published.