Canadas nye føderale direktiv gør etisk kunstig intelligens til et nationalt problem

I det perfekte kryds mellem teknologi og offentlig tjeneste vil enhver regeringsproces være en automatiseret proces, der strømliner fordele, resultater og applikationer for alle borgere i et digitalt aktiveret land.
Med denne tilgang følger et betydeligt lag af protokol, der er nødvendigt for at sikre, at borgerne føler sig bemyndiget til beslutningsprocesser, og hvordan deres regering adresserer behov fra et digitalt perspektiv. Lige nu er Canada førende i verden inden for kunstig intelligens, i høj grad takket være enorme offentlige investeringer som f.eks Pan-canadisk kunstig intelligens-strategi . Det voksende felt er gennemgående lige nu - der er næppe en industri, den ikke har forstyrret, fra minedrift til retshjælp. Regeringen er ikke anderledes. Faktisk kan regeringen være et af de mest oplagte valg med hensyn til, hvor automatiserede beslutningsprocesser kan spare tid og penge.
Det dilemma, der opstår ved en regerings indførelse af AI, er en forstærkning af problemerne omkring, hvordan enhver organisation omfavner den spirende teknologi: Hvordan sikrer du, at denne AI-platform eller -tjeneste på retfærdig og passende måde imødekommer kundernes behov? En virksomhed som Facebook bruger kunstig intelligens af en række årsager, såsom annoncemålretning eller ansigtsgenkendelse på billeder. Sikker på, deres algoritmer kan resultere i, at uhyggeligt nøjagtige annoncer dukker op i nyhedsfeedet, men etikken i deres maskinlæringsløsninger påvirker virkelig kun en persons privatliv - eller mangel på samme i de seneste år.
En regering skal på den anden side tage en lang række detaljer i betragtning, når de begynder at adoptere nye teknologier som AI. Regeringer beskæftiger sig selvfølgelig med privatlivets fred – men de beskæftiger sig også med sundhedspleje, immigration, kriminel aktivitet og mere. Så problemet for dem drejer sig mindre om Hvilken slags AI-løsning skal vi bruge? og mere omkring Hvilke skal vi ikke bruge?
De kunstige intelligens-platforme, som en regering ikke kan røre ved, er dem, der tilbyder lidt eller ingen gennemsigtighed og er fyldt med partiskhed og usikkerhed. Hvis en beslutning fra regeringen er truffet gennem en automatiseret proces, har en borger ret til at forstå, hvordan denne beslutning er blevet til. Der kan ikke være nogen beskyttelse af IP og ingen nøje bevogtet kildekode. For eksempel, hvis en ansøger om en potentiel kriminel benådning nægtes denne benådning af et AI-system, der er trænet med historiske data, fortjener denne ansøger at forstå præcis, hvorfor de kan være blevet afvist.
Den canadiske regerings løsning på dette problem er direktivet om automatiseret beslutningstagning, udgivet tidligere på ugen. hentydet til i slutningen af 2018 af daværende minister for digital regering Scott Brison, er det en manual, der beskriver, hvordan regeringen vil bruge AI til at vejlede beslutninger inden for flere afdelinger. Kernen i direktivet er Algorithmic Impact Assessment (AIA), et værktøj, der bestemmer præcis, hvilken slags menneskelig indgriben, peer review, overvågning og beredskabsplanlægning et AI-værktøj bygget til at tjene borgerne vil kræve.
En maskinvejledning til etik
Den canadiske regerings vej til at implementere etisk praksis i deres AI-beslutningsprocesser begyndte for omkring 14 måneder siden, da Michael Karlin, teamlederen for datapolitik i Department of National Defence, bemærkede en blind plet i, hvordan regeringen håndterede deres data. Et team blev dannet for at udvikle en ramme, og det voksede derfra, og arbejdede helt åbent gennem platforme som GitHub og modtog feedback fra private virksomheder, andre regeringer og post-sekundære institutioner som MIT og Oxford.
Da det hold, som nu ledes af Canadas informationschef Alex Benay, så sig omkring på andre regeringer, indså de, at der ikke var noget værktøj på plads, der nøjagtigt kunne måle den indvirkning, en automatiseret proces kan have på de borgere, den blev skabt til at tjene. Der er naturligvis iboende risici afhængigt af, hvordan AI opererer med sine kunder - nogle af dem er billige, mens andre er ekstremt vigtige.
Hvis en chatbot vil fortælle dig, at en skøjtebane er åben, og du dukker op, og den ikke er åben, og den chatbot var forkert, er det lav risiko, forklarer Benay. Men hvis du vil automatisere immigrationsbeslutninger, er det så stor en risiko, som vi kan få.
Det nyligt udgivne direktiv kvantificerer disse risici og tilbyder AIA som et værktøj til virksomheder, der bygger AI-regeringsløsninger, der bestemmer præcis, hvilken slags intervention de kan få brug for. Virksomheder får adgang til AIA online og udfylder en 60-plus spørgsmålsundersøgelse om deres platform, og når de er færdige, vil de blive returneret med et effektniveau. Undersøgelsen stiller spørgsmål som Muliggør systemet tilsidesættelse af menneskelige beslutninger? og Er der en proces på plads til at dokumentere, hvordan datakvalitetsproblemer blev løst under designprocessen?
Yderligere to eksempelspørgsmål fra AIA.
Effektniveauet for en kunstig intelligens-platform, som regeringen har indgået kontrakt om, er rangeret fra én til fire. Jo højere rang, jo større indflydelse har den automatiserede beslutningsproces på individers og samfunds rettigheder, sundhed og økonomiske interesser. Processer, der for eksempel træffer beslutninger, der involverer kriminel aktivitet eller en persons mulighed for at forlade og rejse ind i landet, vil umiddelbart blive vurderet med et effektniveau på tre eller fire.
Ved visse påvirkningsniveauer skal der være indgreb i flere former. Hvis en automatiseret beslutningsproces modtager en konsekvensvurdering på niveau fire, vil det kræve to uafhængige peer reviews, en offentlig meddelelse i almindeligt sprog, en menneskelig indgriben fejlsikker og tilbagevendende træningskurser for systemet.
AIA-vurderingen er virkelig et værktøj, der viser dit sværhedsgrad, og hvordan du skal behandle problemet, siger Benay. Du har sandsynligvis ikke brug for peer review for det skøjtebaneproblem, men vil helt sikkert have brug for en peer review-gruppe, før du automatiserer grænser eller sociale tjenester.
På trods af at dette direktiv kan få det til at virke som om regeringen gør alt, hvad de kan for at forberede sig på angrebet af teknologisk disruption, er det faktisk det stik modsatte. Med et emne så nuanceret som etik og AI, er regeringens topprioritet gennemsigtighed og ansvarlighed.
Det, vi forsøger at gøre med AIA, er at sikre, at mennesker forbliver i kontrol, så de kan appellere afgørelser.
Det, vi ikke ønsker, er en sort boks-algoritme fra en virksomhed, der ikke ønsker at fortælle os, hvordan den algoritme tog beslutningen, siger Benay. Det er ikke noget, vi kan overholde fra en servicetilgang, hvor folk formodes at have regres, hvis en service, de modtog, var uretfærdig.
AIA i sig selv er en stor bedrift for ikke kun den canadiske regering, men for regeringer over hele verden. Det er det første værktøj af sin art og blev vedtaget af Mexico for fire måneder siden, på trods af at det ikke engang blev udgivet officielt før i denne uge. Benay og hans team er i samtaler med flere medlemmer af D9 herunder Portugal og Storbritannien, når de ser på at implementere værktøjet.
Lige så vigtigt som direktivet og AIA er at sætte tempoet for implementeringen af etik, som de relaterer til regeringens praksis, kan reglerne være et stridspunkt for nogle af Canadas foretrukne AI-partnere, især virksomhedsvirksomheder som Amazon Web Services, Microsoft , og andre.
Oprettelse af problemet
For at en virksomhed kan levere en automatiseret beslutningsproces til regeringen, tvinger det nye direktiv virksomhedens hånd til at frigive sin kildekode til regeringen. Det giver mening i teorien, da det hele bygger på begrebet forklarlighed, som Benay udtrykker det.
Vi skal vise borgerne, hvordan en beslutning blev truffet gennem en algoritme, siger han. Hvis vi kommer til et punkt, hvor der for eksempel er en retssag, der involverer den automatiske afgørelse, skal vi muligvis frigive algoritmen.
Dette stridspunkt er måske det sande hjerte i den etiske AI-diskussion. Der skal være en balance mellem gennemsigtige beslutninger og beskyttelsen af IP. Hvis en AI-virksomhed vil have regeringen som kunde, må de indse, at gennemsigtighed værdsættes frem for alt. Den slags tanker kunne vige nogle entreprenører væk.
Tænk på det sådan her: I teorien, hvis Amazon skulle levere en AI-løsning til den canadiske regering, er det eneste, der adskiller enhver borger fra at få adgang til hele Amazons kildekode - i det mindste for det pågældende projekt - en anmodning om informationsfrihed. I en tid med nøje bevogtede hvidmærkede løsninger og lånt kode, er muligheden for let adgang til kildeinformation et vanskeligt problem at dissekere. Disse adgange vil blive overvåget fra sag til sag for at beskytte en tredjepartsleverandørs forretningshemmeligheder eller kommercielle fortrolige oplysninger, men selv det vil være til fortolkning. De, der får adgang til den kildekode, er stadig beskyttet af copyright, men koden kan manipuleres nok til at sløre den og skabe hovedpine for de originale udgivere.

Toronto-kontorerne for Element AI, en foretrukken AI-leverandør for Canadas regering.
Det er en delikat diskussion, siger Benay. Jeg ved, at IP er blodlinjen af indtægter for disse virksomheder. Men hvis du skal handle med regeringen og have direkte interaktion med borgerne, har du tilføjet ansvar som en privat virksomhed. Det er den balance, vi skal finde. Jeg er ikke sikker på, at vi fandt det. Måske gjorde vi det, men vi vil fortsætte med at arbejde gennemsigtigt.
Der er kun nogle få måder, hvorpå kildekoden vil blive beskyttet mod at blive frigivet, og de forholder sig også til de statslige myndigheder, som dette nye AI-direktiv ikke vil påvirke. Alle parlamentets agenter er beskyttet, hvilket mere eller mindre omfatter alt inden for sikkerhed og konkurrencemæssig efterretning. På et tidspunkt i fremtiden vil algoritmer og kunstig intelligens blive brugt til at hjælpe med at spore ulovlige aktiviteter, og af indlysende årsager kan regeringen ikke offentligt afsløre kildekoden til disse beslutninger.
Hvis du skal handle med regeringen og have direkte interaktion med borgerne, har du tilføjet ansvar som en privat virksomhed.
Benay indrømmer, at alt omkring dette direktiv muligvis ikke er i sin endelige form. Fordi økosystemet, der involverer AI, skifter så hurtigt, forpligter regeringen sig til at opdatere direktivet hvert halve år, og regeringen er også i gang med at etablere et AI-advisory board for at sikre, at fremtidige beslutninger træffes ansvarligt.
Normalt ville vi have fem, seks, endda syv år til at arbejde os igennem sådan noget her, siger Benay. Vi har været nødt til at arbejde os igennem det i flere måneder. Det er en meget ny form for politik og styringsperspektiv at arbejde gennem problemer så hurtigt. Men du ser svaret. Til vores AI-dag sidste år havde vi 125 personer i lokalet. Til AI-dagen i år havde vi 1.000.
Trendsættere
I løbet af de næste par år kommer der ikke til at mangle diskussion omkring etik og kunstig intelligens. Det virkelige spørgsmål vil dreje sig om, hvornår den diskussion går fra forebyggende handling om fremtiden for automatiserede beslutninger til defensiv gengældelse, der forsøger at beskytte borgerne og økonomien mod allerede etablerede AI-løsninger. Et værktøj som AIA er ikke en defensiv mekanisme endnu, men det er lige så tæt på et, der nogensinde er blevet udviklet.
Der er for mange ting, vi ikke ved, siger Benay. Du ønsker ikke at komme til en position, hvor vi afgiver kontrol over beslutninger til maskiner uden at vide alt om dem. Den skræmmende del for os rundt om i verden er, at mange regeringer ikke ser ud til at indse niveauet af automatisering af deres egne værdier, som de fremfører, når de handler med potentielle leverandører, der har black box-kode eller IP.
Der er i det mindste lidt gode nyheder at tage med. Hvert medlem af D9 overvejer, om de skal implementere Canadas AIA, og Mexico har allerede gjort det. Målet er, at så mange nationer som muligt bruger det og udvikler en kollektiv hjernetillid bag direktivet.
Hvis vi kan få en anstændig mængde lande til at bruge dette værktøj og dyrke det og pleje det, sætter vi regeringen i en bedre position til at håndtere automatisering, privatliv og alle disse problemer, du ser, siger Benay. Det er meget svært at være et mellemstort land i verden lige nu. Med dette værktøj ude i det fri, kan andre lande samle sig til det og begynde at bruge det. Det er en verdensførste i en offentlig sektors tilgang til kunstig intelligens.
Det er nok vores mest gennemsigtige stykke politik, som vi nogensinde har udviklet til administrative politikker i Treasury Board Secritariat.
På et mere lokalt niveau beder Canadas regering alle kvalificerede AI-leverandører om at give et offentligt løfte om, at de kun vil arbejde med afdelinger, der har gennemført en AIA. Nogle få virksomheder har allerede påtaget sig løftet, herunder MindBridge AI, ThinkData Works og CognitiveScale, og Benays team vil formelt sende breve inden for et par uger.
—
Offentlig introspektion vedrørende etik og kunstig intelligens er ikke noget nyt. I midten af 2018 en gruppe af menneskerettigheds- og teknologigrupper udgivet Toronto-erklæringen , og beder alle, der er involveret i AI-processer, om at holde vores fokus på, hvordan disse teknologier vil påvirke individuelle mennesker og menneskerettigheder, for hvem vil i en verden af maskinlæringssystemer bære ansvaret for at skade menneskerettighederne? I 2017 støttede canadiske AI-eksperter en forbud mod dræberrobotter også, hvilket i bund og grund er den mest ligetil måde at understøtte etisk kunstig intelligens på. Frankrig sluttede sig for nylig til Canada offentligt forpligte sig til den etiske forståelse af AI. Endelig er nogle af de største canadiske kunstig intelligens-firmaer, bl.a Integrer.ai og AI element støtter konstant og vokalt krydsfeltet mellem etik og AI.
Jeg ved ikke, om alle forstår, hvor stort et problem den etiske side af AI er, når det kommer til at forstå retfærdighed og bias, fortalte Integrate.ai CEO og grundlægger Steve Irvine til Techvibes tidligere på året. Det er ikke sådan, at robotter vil overtage verden. I stedet vil det være at bruge datasæt fra historiske data, som mange virksomheder har indsamlet, hvor der vil være en iboende bias fra fortiden. Uden at justere for det risikerer vi at fastholde de stereotyper, vi har forsøgt at gå væk fra i årtier.
Canadas offentliggørelse af dette direktiv er et vigtigt skridt mod normaliseringen af, hvor dybt rodfæstet etik og kunstig intelligens bør være. Med massive virksomheder som Facebook og Google konstant under kontrol med hensyn til, hvordan de håndterer privatliv og data – samtidig med at de leder skabelsen og formidlingen af nogle af de mest virkningsfulde teknologier i verden – er det vigtigt hele tiden at overveje, hvordan nye fremskridt inden for teknologi påvirker en almindelig borgers liv.
Du ser mange ting i aviserne omkring mega-selskaberne, og hvordan de vælger at gøre privatliv eller ikke gøre privatliv, siger Benay. Ikke at kamplinjer bliver trukket omkring værdier, men der er dybe og hårde samtaler at føre omkring disse ting, og alt, hvad vi forsøger at gøre, er at sikre, at vi er godt positioneret nationalt for at sikre, at vi er i stand til at have de samtaler.