Siekdama, kad į DI orientuotos moterys akademikės ir kitos būtų dėmesio centre, „TechCrunch“ paskelbė interviu seriją, skirtą nuostabioms moterims, prisidėjusioms prie AI revoliucijos. Šiuos kūrinius skelbiame ištisus metus, nes tęsiasi AI bumas, pabrėždami pagrindinius darbus, kurie dažnai lieka neatpažįstami. Daugiau profilių skaitykite čia.
Miriam Vogel yra ne pelno siekiančios organizacijos „EqualAI“ generalinė direktorė, sukurta siekiant sumažinti nesąmoningą DI šališkumą ir skatinti atsakingą AI valdymą. Ji taip pat yra neseniai įsteigto Nacionalinio AI patariamojo komiteto pirmininkė, Kongreso įgaliota patarti prezidentui Joe Bidenui ir Baltiesiems rūmams dirbtinio intelekto politikos klausimais, taip pat dėsto technologijų teisę ir politiką Džordžtauno universiteto teisės centre.
Vogelis anksčiau dirbo Teisingumo departamento generalinio prokuroro pavaduotoju, patardamas generaliniam prokurorui ir generalinio prokuroro pavaduotojui įvairiais teisiniais, politikos ir veiklos klausimais. Būdamas Atsakingo AI instituto valdybos narys ir Demokratijos ir technologijų centro vyresnysis patarėjas, Vogel's patarė Baltųjų rūmų vadovybei įvairiose iniciatyvose – nuo moterų, ekonomikos, reguliavimo ir maisto saugos politikos iki baudžiamosios teisenos klausimų.
Trumpai, kaip pradėjote dirbti dirbtinio intelekto srityje? Kas tave patraukė šioje srityje?
Savo karjerą pradėjau dirbdamas vyriausybėje, iš pradžių kaip Senate praktikantas, vasarą prieš 11 klasę. Susidūriau su politikos klaida ir kelias kitas vasaras praleidau dirbdamas ant kalvos, o paskui – Baltuosiuose rūmuose. Tuo metu aš sutelkiau dėmesį į pilietines teises, kurios nėra įprastas dirbtinio intelekto kelias, tačiau žvelgiant atgal, tai visiškai logiška.
Baigęs teisės studijas, mano karjera peraugo nuo pramogų advokato, besispecializuojančio intelektinės nuosavybės srityje, iki civilinių teisių ir socialinio poveikio darbo vykdomojoje valdžioje. Dirbdamas Baltuosiuose rūmuose turėjau privilegiją vadovauti vienodo darbo užmokesčio darbo grupei, o būdamas generalinio prokuroro pavaduotoju, vadovaujant buvusiai generalinio prokuroro pavaduotojai Sally Yates, vadovavau federalinei teisėsaugai skirtų numanomo šališkumo mokymų kūrimui ir plėtrai. .
Manęs paprašė vadovauti EqualAI, remiantis mano, kaip technologijų teisininko, patirtimi ir politinėmis žiniomis, susijusiomis su šališkumu ir sistemine žala. Mane patraukė ši organizacija, nes supratau, kad dirbtinis intelektas pristato kitą pilietinių teisių ribą. Be budrumo dešimtmečių pažanga gali būti panaikinta kodo eilutėse.
Mane visada jaudino naujovių sukurtos galimybės ir vis dar tikiu, kad dirbtinis intelektas gali suteikti nuostabių naujų galimybių klestėti daugiau gyventojų, tačiau tik tuo atveju, jei šiuo kritiniu momentu būsime atsargūs ir užtikriname, kad daugiau žmonių galėtų prasmingai dalyvauti jos veikloje. kūrimas ir plėtra.
Kaip sprendžiate vyrų dominuojamos technologijų pramonės ir, tuo labiau, vyrų dominuojamos AI pramonės iššūkius?
Iš esmės tikiu, kad mes visi turime atlikti savo vaidmenį užtikrindami, kad mūsų dirbtinis intelektas būtų kuo veiksmingesnis, veiksmingesnis ir naudingesnis. Tai reiškia, kad turime stengtis labiau paremti moterų balsus plėtojant (jos, beje, sudaro daugiau nei 85 % pirkimų JAV, todėl jų interesų ir saugumo užtikrinimas yra protingas verslo žingsnis), nes taip pat kitų nepakankamai atstovaujamų įvairaus amžiaus, regionų, etninių ir tautybių gyventojų, kurie nepakankamai dalyvauja, balsai.
Siekdami lyčių lygybės, turime užtikrinti, kad būtų atsižvelgta į daugiau balsų ir perspektyvų, kad būtų sukurta DI, kuri tinka visiems vartotojams, o ne tik kūrėjams.
Ką patartumėte moterims, norinčioms patekti į AI sritį?
Pirma, niekada nevėlu pradėti. Niekada. Raginu visus senelius pabandyti naudoti OpenAI ChatGPT, Microsoft Copilot arba Google Gemini. Mes visi turėsime tapti dirbtinio intelekto raštingais, kad klestėtume ekonomikoje, kuriai priklauso dirbtinis intelektas. Ir tai jaudina! Mes visi turime atlikti savo vaidmenį. Nesvarbu, ar pradedate dirbtinio intelekto karjerą, ar naudojate dirbtinį intelektą savo darbui paremti, moterys turėtų išbandyti AI įrankius, pamatyti, ką šie įrankiai gali ir ko negali, ar jie tinka joms ir apskritai tampa išmanantys dirbtinį intelektą.
Antra, atsakingam dirbtinio intelekto vystymui reikia ne tik etiškų kompiuterių mokslininkų. Daugelis žmonių mano, kad dirbtinio intelekto sričiai reikia informatikos ar kito STEM laipsnio, o iš tikrųjų dirbtiniam intelektui reikia įvairių moterų ir vyrų perspektyvų ir patirties. Įšokti! Reikia jūsų balso ir perspektyvos. Jūsų dalyvavimas yra labai svarbus.
Kokios yra pačios aktualiausios problemos, su kuriomis susiduria dirbtinis intelektas vystantis?
Pirma, mums reikia didesnio AI raštingumo. Esame „teigiami dirbtiniu intelektu“ EqualAI, o tai reiškia, kad manome, kad dirbtinis intelektas suteiks precedento neturinčių galimybių mūsų ekonomikai ir pagerins mūsų kasdienį gyvenimą, tačiau tik tuo atveju, jei šios galimybės bus vienodai prieinamos ir naudingos didesnei mūsų gyventojų daliai. Mums reikia mūsų dabartinės darbo jėgos, naujos kartos, mūsų senelių – Visi mes — turėti žinių ir įgūdžių, leidžiančių pasinaudoti dirbtiniu intelektu.
Antra, turime sukurti standartizuotas priemones ir metrikas, kad įvertintume dirbtinio intelekto sistemas. Standartizuoti vertinimai bus labai svarbūs kuriant pasitikėjimą mūsų AI sistemomis ir leidžiant vartotojams, reguliavimo institucijoms ir tolesniems naudotojams suprasti dirbtinio intelekto sistemų, su kuriomis jie naudojasi, ribas ir nustatyti, ar ta sistema verta mūsų pasitikėjimo. Suprasdami, kam sistema sukurta tarnauti, ir numatomus naudojimo atvejus padėsime atsakyti į pagrindinį klausimą: kam tai gali nepavykti?
Kokias problemas AI naudotojai turėtų žinoti?
Dirbtinis intelektas yra būtent tai: dirbtinis. Jį sukūrė žmonės, kad „mėgdžiotų“ žmogaus pažinimą ir įgalintų žmones jų siekiuose. Naudodami šią technologiją turime išlaikyti reikiamą skepticizmą ir būti deramai kruopščiai, kad įsitikintume, jog pasitikime sistemomis, kurios nusipelno mūsų pasitikėjimo. AI gali padidinti, bet ne pakeisti žmoniją.
Turime aiškiai stebėti faktą, kad AI susideda iš dviejų pagrindinių sudedamųjų dalių: algoritmų (sukurtų žmonių) ir duomenų (atspindinčių žmonių pokalbius ir sąveiką). Dėl to AI atspindi ir pritaiko mūsų žmogiškuosius trūkumus. Šališkumas ir žala gali būti įtraukta į visą AI gyvavimo ciklą, nesvarbu, ar tai būtų žmonių surašyti algoritmai, ar duomenys, kurie yra žmogaus gyvenimo momentinė nuotrauka. Tačiau kiekvienas žmogaus sąlyčio taškas yra galimybė nustatyti ir sumažinti galimą žalą.
Kadangi galima tik įsivaizduoti tiek plačiai, kiek leidžia jų pačių patirtis, o dirbtinio intelekto programas riboja konstrukcijos, pagal kurias jos sukurtos, kuo daugiau komandoje žmonių turi įvairių požiūrių ir patirties, tuo didesnė tikimybė, kad jie susidurs su šališkumu ir kitais saugos klausimais. įterpti į jų AI.
Koks yra geriausias būdas atsakingai kurti AI?
Mūsų atsakomybė yra DI, kuris vertas mūsų pasitikėjimo, kūrimas. Negalime tikėtis, kad kažkas kitas tai padarys už mus. Turime pradėti nuo trijų pagrindinių klausimų: (1) kam sukurta ši AI sistema (2), kokie buvo numatyti naudojimo atvejai ir (3) kam tai gali nepavykti? Net ir turint omenyje šiuos klausimus, neišvengiamai atsiras spąstų. Siekdami sumažinti šią riziką, dizaineriai, kūrėjai ir diegėjai turi vadovautis geriausia praktika.
„EqualAI“ skatina gerą „AI higieną“, kuri apima sistemos planavimą ir atskaitomybės užtikrinimą, testavimo, dokumentų ir įprastinio audito standartizavimą. Taip pat neseniai paskelbėme atsakingos AI valdymo sistemos kūrimo ir naudojimo vadovą, kuriame apibrėžiamos vertybės, principai ir atsakingo dirbtinio intelekto įgyvendinimo organizacijoje pagrindas. Šis dokumentas yra išteklius bet kokio dydžio, sektoriaus ar brandos organizacijoms, kurios priima, kuria, naudoja ir diegia dirbtinio intelekto sistemas, įsipareigojusios tai daryti atsakingai.
Kaip investuotojai galėtų geriau siekti atsakingo AI?
Investuotojų vaidmuo užtikrinant mūsų AI saugų, veiksmingą ir atsakingą. Investuotojai gali užtikrinti, kad finansavimo ieškančios įmonės žinotų ir galvotų apie galimos žalos ir įsipareigojimų mažinimą savo AI sistemose. Net uždavus klausimą: „Kaip jūs sukūrėte AI valdymo praktiką? yra prasmingas pirmasis žingsnis siekiant geresnių rezultatų.
Šios pastangos naudingos ne tik visuomenės labui; tai taip pat yra naudingiausia investuotojams, kurie norės užtikrinti, kad įmonės, į kurias jie investuoja ir su kuriomis jie yra susiję, nebūtų siejamos su blogomis antraštėmis arba nebūtų apsunkintos bylinėjimosi. Pasitikėjimas yra vienas iš nedaugelio neaptartų dalykų, siekiant įmonės sėkmės, o įsipareigojimas atsakingam dirbtinio intelekto valdymui yra geriausias būdas sukurti ir palaikyti visuomenės pasitikėjimą. Tvirtas ir patikimas AI yra naudingas verslui.