Bygge ansvarlig AI: 5 pilarer for en etisk fremtid

GettyImages 1339968369

[ad_1]

Vi er glade for å bringe Rework 2022 tilbake personlig 19. juli og nesten 20. – 28. juli. Bli med AI- og dataledere for innsiktsfulle samtaler og spennende nettverksmuligheter. Registrer deg i dag!


Så lenge det har vært teknologisk fremgang, har det vært bekymringer over implikasjonene. Manhattan-prosjektet, da forskere kjempet med sin rolle i å slippe løs slik nyskapende, males likevel destruktiv kjernekraft, er et godt eksempel. Lord Solomon “Solly” Zuckerman var en vitenskapelig rådgiver for de allierte below andre verdenskrig, og etterpå en fremtredende talsmann for ikke-spredning av atomvåpen. Han ble sitert på 1960-tallet med en forutseende innsikt som fortsatt stemmer i dag: “Vitenskap skaper fremtiden uten å vite hva fremtiden vil bli.”

Kunstig intelligens (AI), nå en samlebetegnelse for all maskinlæring (ML) programvare designet for å utføre komplekse oppgaver som vanligvis krever menneskelig intelligens, er bestemt til å spille en overordnet rolle i vårt fremtidige samfunn. Den nylige spredningen har ført til en eksplosjon i interesse, samt økt gransking av hvordan AI utvikles og hvem som utvikler, og kastet et lys over hvordan skjevhet påvirker design og funksjon. EU planlegger ny lovgivning som tar sikte på å redusere potensielle skader som AI kan forårsake, og ansvarlig AI vil være lovpålagt.

Det er lett å forstå hvorfor slike rekkverk er nødvendig. Mennesker bygger AI-systemer, så de tar uunngåelig med sitt eget syn på etikk inn i designet, ofte til det verre. Noen urovekkende eksempler har allerede dukket opp – algoritmen for Apple-kortet og jobbrekruttering hos Amazon ble undersøkt for kjønnsskjevhet, og Google [subscription required] måtte gjenopprette sin bildetjeneste etter rasistisk tagging. Hvert selskap har siden løst problemene, males teknologien beveger seg raskt, og understreker lærdommen om at å bygge overlegen teknologi uten å ta hensyn til risiko er som å spurte med bind for øynene.

Bygge ansvarlig AI

Melvin Greer, dataforsker i Intel, påpekte i VentureBeat at “… eksperter innen ansvarlig AI virkelig ønsker å fokusere på å lykkes med å håndtere risikoen for AI-bias, slik at vi ikke naked lager et system som gjør noe som er hevdet, males gjør noe i sammenheng med et bredere perspektiv som anerkjenner samfunnsnormer og ethical.»

Sagt på en annen måte, de som designer AI-systemer må være ansvarlige for valgene sine, og i hovedsak “gjøre det rette” når det kommer til å implementere programvare.

Hvis bedriften eller teamet ditt planlegger å bygge eller innlemme et AI-system, er her fem pilarer som bør danne grunnlaget ditt:

1. Ansvarlighet

Du skulle tro at mennesker ville ta del i AI-design fra begynnelsen, males det er dessverre ikke alltid tilfelle. Ingeniører og utviklere kan lett gå seg vill i koden. Males det retailer spørsmålet som dukker opp når mennesker blir brakt inn i løkken er ofte: “Hvor mye tillit setter du til ML-systemet for å begynne å ta beslutninger?”

Det mest åpenbare eksemplet på denne viktigheten er selvkjørende biler, der vi “overlater” kjøretøyet til å “vite” hva den riktige avgjørelsen bør være for den menneskelige sjåføren. Males selv i andre scenarier som utlånsbeslutninger, må designere vurdere hvilke beregninger av rettferdighet og skjevhet som er forbundet med ML-modellen. En good beste praksis å implementere vil være å opprette en pågående AI-etisk komité for å hjelpe til med å overvåke disse politiske beslutningene, og oppmuntre til revisjoner og gjennomganger for å sikre at du holder tritt med moderne samfunnsstandarder.

2. Replikerbarhet

De fleste organisasjoner bruker information fra en rekke kilder (datavarehus, skylagringsleverandører, and so on.), males hvis disse dataene ikke er ensartede (som betyr 1:1) kan det føre til problemer på veien når du prøver å samle inn information. innsikt for å løse problemer eller oppdatere funksjoner. Det er viktig for selskaper som utvikler AI-systemer å standardisere sine ML-rørledninger for å etablere omfattende data- og modellkataloger. Dette vil bidra til å effektivisere testing og validering, samt forbedre muligheten til å produsere nøyaktige dashboards og visualiseringer.

3. Åpenhet

Som med de fleste ting, er åpenhet den beste politikken. Når det gjelder ML-modeller, er åpenhet det samme som tolkbarhet (dvs. sikre at ML-modellen kan forklares). Dette er spesielt viktig i sektorer som financial institution og helsevesen, hvor du må kunne forklare og begrunne for kundene hvorfor du bygger disse spesifikke modellene for å sikre rettferdighet mot uønsket skjevhet. Det betyr at hvis en ingeniør ikke kan rettferdiggjøre hvorfor en viss ML-funksjon eksisterer til fordel for kunden, bør den ikke være der. Det er her overvåking og beregninger spiller en stor rolle, og det er avgjørende å holde øye med statistisk ytelse for å sikre den langsiktige effektiviteten til AI-systemet.

4. Sikkerhet

Når det gjelder AI, handler sikkerhet mer om hvordan et selskap skal beskytte sin ML-modell, og inkluderer vanligvis teknologier som kryptert databehandling og kontradiktorisk testing – fordi et AI-system ikke kan være ansvarlig hvis det er mottakelig for angrep. Tenk på dette virkelighetsscenarioet: Det var en datasynsmodell designet for å oppdage stoppskilt, males da noen satte et lite klistremerke på stoppskiltet (ikke engang kan skilles fra det menneskelige øyet) ble systemet lurt. Eksempler som dette kan ha enorme sikkerhetsimplikasjoner, så du må hele tiden være årvåken med sikkerhet for å forhindre slike feil.

5. Personvern

Denne siste søylen er alltid et hot-knapp-problem, spesielt med så mange av de pågående Fb-skandalene som involverer kundedata. AI samler inn enorme mengder information, og det må være veldig klare retningslinjer for hva den skal brukes til. (Tenk GDPR i Europa.) Offentlig regulering til aspect, må hvert selskap som designer AI gjøre personvern til et overordnet anliggende og generalisere dataene sine for ikke å lagre individuelle poster. Dette er spesielt viktig i helsevesenet eller enhver bransje med delicate pasientdata. For mer informasjon, sjekk ut teknologier som forent læring og differensiert personvern.

Ansvarlig AI: Veien videre

Selv etter å ha tatt disse fem pilarene i betraktning, kan ansvar i AI føles mye som en mule-situasjon – akkurat når du tror teknologien fungerer etisk, dukker det opp en ny nyanse. Dette er naked en del av prosessen med å indoktrinere en spennende ny teknologi i verden, og i likhet med internett vil vi sannsynligvis aldri slutte å debattere, tukle med og forbedre funksjonaliteten til AI.

Gjør ingen feil, males; Implikasjonene av AI er enorme og vil ha en varig innvirkning på flere bransjer. En god måte å begynne å forberede seg på nå er ved å fokusere på å bygge et mangfoldig staff i organisasjonen din. Å bringe folks av forskjellige raser, kjønn, bakgrunn og kulturer vil redusere sjansene dine for skjevhet før du i det hele tatt ser på teknologien. Ved å inkludere flere mennesker i prosessen og praktisere kontinuerlig overvåking, vil vi sikre at AI er mer effektiv, etisk og ansvarlig.

Dattaraj Rao er sjef for dataforsker ved Persistent.

DataDecision Makers

Velkommen til VentureBeat-fellesskapet!

DataDecisionMakers er der eksperter, inkludert de tekniske personene som driver med dataarbeid, kan dele datarelatert innsikt og innovasjon.

Hvis du vil lese om banebrytende ideer og oppdatert informasjon, beste praksis og fremtiden for data- og datateknologi, kan du bli med oss ​​på DataDecisionMakers.

Du kan til og med vurdere å bidra med en egen artikkel!

Les mer fra DataDecisionMakers

[ad_2]

admin

Leave a Reply

Your email address will not be published.