Atnaujinimas: Kalifornijos asignavimų komitetas ketvirtadienį, rugpjūčio 15 d., priėmė SB 1047 su reikšmingais pakeitimais, pakeičiančiais įstatymo projektą. Apie juos galite perskaityti čia.
Be mokslinės fantastikos filmų, nėra precedento, kad dirbtinio intelekto sistemos žudytų žmones arba būtų naudojamos didžiulėms kibernetinėms atakoms. Tačiau kai kurie įstatymų leidėjai nori įgyvendinti apsaugos priemones, kol blogi veikėjai tą distopinę ateitį pavers realybe. Kalifornijos įstatymo projektas, žinomas kaip SB 1047, bando sustabdyti realaus pasaulio nelaimes, kurias sukelia AI sistemos, prieš joms įvykstant, o vėliau rugpjūčio mėn. planuojamas galutinis balsavimas valstijos senate.
Nors tai atrodo kaip tikslas, dėl kurio visi galime sutikti, SB 1047 sukėlė didelių ir mažų Silicio slėnio žaidėjų, įskaitant rizikos kapitalistus, dideles technologijų prekybos grupes, tyrėjus ir startuolių steigėjus, pyktį. Šiuo metu šalyje skraido daug dirbtinio intelekto sąskaitų, tačiau Kalifornijos saugių ir saugių inovacijų pasienio dirbtinio intelekto modeliams įstatymas tapo vienu kontroversiškiausių. Štai kodėl.
Ką veiktų SB 1047?
SB 1047 bando užkirsti kelią dideliems dirbtinio intelekto modeliams, kad būtų daroma „kritinė žala“ žmonijai.
Įstatymo projekte pateikiami „kritinės žalos“ pavyzdžiai, kai blogas veikėjas naudoja dirbtinio intelekto modelį, kad sukurtų ginklą, dėl kurio žūtų masinių aukų, arba nurodoma organizuoti kibernetinę ataką, dėl kurios padaryta daugiau nei 500 mln. padarė daugiau nei 5 milijardus dolerių). Įstatymo projektas įpareigoja kūrėjus, ty modelius kuriančias įmones, įgyvendinti pakankamai saugos protokolų, kad būtų išvengta tokių rezultatų.
Kokiems modeliams ir įmonėms taikomos šios taisyklės?
SB 1047 taisyklės galiotų tik didžiausiems pasaulyje dirbtinio intelekto modeliams: tiems, kurie kainuoja mažiausiai 100 mln. . Šios ribos gali būti padidintos pagal poreikį.
Labai nedaugelis įmonių šiandien yra sukūrusios viešuosius AI produktus, pakankamai didelius, kad atitiktų šiuos reikalavimus, tačiau technologijų milžinai, tokie kaip OpenAI, Google ir Microsoft, greičiausiai, labai greitai. Dirbtinio intelekto modeliai – iš esmės didžiuliai statistiniai varikliai, identifikuojantys ir nuspėjantys duomenų modelius – paprastai tapo tikslesni, kai jie išaugo, o daugelis tikisi, kad ši tendencija tęsis. Markas Zuckerbergas neseniai sakė, kad naujos kartos „Meta's Llama“ reikės 10 kartų daugiau skaičiavimo, todėl jai priklausys SB 1047.
Kalbant apie atvirojo kodo modelius ir jų išvestinius produktus, sąskaitoje nustatyta, kad atsakingas yra pradinis kūrėjas, nebent kitas kūrėjas išleidžia tris kartus daugiau, kurdamas pirminio modelio išvestinį produktą.
Įstatymo projekte taip pat reikalaujama saugos protokolo, kad būtų išvengta netinkamo taikomų AI produktų naudojimo, įskaitant „avarinio sustabdymo“ mygtuką, kuris išjungia visą AI modelį. Kūrėjai taip pat turi sukurti testavimo procedūras, skirtas AI modelių keliamai rizikai pašalinti, ir kasmet samdyti trečiųjų šalių auditorius, kurie įvertintų jų AI saugos praktiką.
Rezultatas turi būti „pagrįstas užtikrinimas“, kad laikantis šių protokolų bus išvengta kritinės žalos – ne visiško tikrumo, kurio, žinoma, neįmanoma suteikti.
Kas tai vykdytų ir kaip?
Nauja Kalifornijos agentūra – Frontier Model Division (FMD) – prižiūrėtų taisykles. Kiekvienas naujas viešasis dirbtinio intelekto modelis, atitinkantis SB 1047 slenksčius, turi būti atskirai sertifikuotas pateikiant rašytinę saugos protokolo kopiją.
FMD valdytų penkių žmonių valdyba, kurią sudarytų AI pramonės, atvirojo kodo bendruomenės ir akademinės bendruomenės atstovai, kuriuos skiria Kalifornijos gubernatorius ir įstatymų leidėjas. Valdyba konsultuos Kalifornijos generalinį prokurorą dėl galimų SB 1047 pažeidimų ir pateiks AI modelių kūrėjams rekomendacijas dėl saugos praktikos.
Kūrėjo vyriausiasis technologijų pareigūnas turi pateikti FMD kasmetinį sertifikatą, kuriame įvertinama jo AI modelio galima rizika, jo saugos protokolo efektyvumas ir aprašas, kaip įmonė laikosi SB 1047. Panašiai kaip pranešimai apie pažeidimus, jei „AI saugos incidentas “, kūrėjas turi pranešti apie tai FMD per 72 valandas nuo sužinojimo apie įvykį.
Jei kūrėjas nesilaiko bet kurios iš šių nuostatų, SB 1047 leidžia Kalifornijos generaliniam prokurorui pareikšti kūrėjui civilinį ieškinį. Modeliui, kurio mokymas kainuoja 100 milijonų dolerių, baudos gali siekti iki 10 milijonų dolerių už pirmąjį pažeidimą ir 30 milijonų dolerių už vėlesnius pažeidimus. Brangstant dirbtinio intelekto modeliams, šis baudos dydis didėja.
Galiausiai, į įstatymo projektą įtraukta darbuotojų apsauga apie pranešėjus, jei jie bando Kalifornijos generaliniam prokurorui atskleisti informaciją apie nesaugų AI modelį.
Ką sako šalininkai?
Kalifornijos valstijos senatorius Scottas Wieneris, kuris parengė įstatymo projektą ir atstovauja San Franciskui, „TechCrunch“ sako, kad SB 1047 yra bandymas pasimokyti iš praeities politikos nesėkmių, susijusių su socialine žiniasklaida ir duomenų privatumu, ir apsaugoti piliečius, kol dar ne vėlu.
„Mes turime istoriją su technologija, kai laukiame, kol atsitiks žala, ir tada laužome rankas“, – sakė Wiener. „Nelaukime, kol atsitiks kažkas blogo. Tiesiog išeikime prieš tai“.
Net jei įmonė parengs 100 milijonų dolerių vertės modelį Teksase arba Prancūzijoje, jai bus taikomas SB 1047, kol ji vykdo verslą Kalifornijoje. Wieneris sako, kad Kongresas „per pastarąjį ketvirtį amžiaus priėmė nepaprastai mažai įstatymų, susijusių su technologijomis“, todėl jis mano, kad Kalifornija turi sukurti precedentą.
Paklaustas, ar jis susitiko su OpenAI ir Meta SB 1047, Wiener sako: „Mes susitikome su visomis didelėmis laboratorijomis“.
Du AI tyrinėtojai, kartais vadinami „AI krikštatėviais“, Geoffrey Hintonas ir Yoshua Bengio, pritarė šiam įstatymo projektui. Šie du priklauso dirbtinio intelekto bendruomenės frakcijai, susirūpinusiam dėl pavojingų pasaulio pabaigos scenarijų, kuriuos gali sukelti AI technologija. Šie „AI pasmerkėjai“ jau kurį laiką egzistavo mokslinių tyrimų pasaulyje, o SB 1047 galėtų kodifikuoti kai kurias jų pageidaujamas apsaugos priemones įstatyme. Kita grupė, remianti SB 1047, AI saugos centras, 2023 m. gegužę parašė atvirą laišką, kuriame prašė pasaulio teikti pirmenybę „pavojaus, kad AI išnyks“, kaip pandemijos ar branduolinis karas.
„Tai yra ilgalaikiai Kalifornijos ir JAV pramonės interesai, nes didelis saugumo incidentas greičiausiai būtų didžiausia kliūtis tolesnei pažangai“, – sakė AI saugos centro direktorius Danas Hendrycksas el. TechCrunch.
Pastaruoju metu kilo abejonių dėl paties Hendryckso motyvų. Liepos mėnesį jis viešai įkūrė startuolį „Grey Swan“, kuris kuria „įrankius, padedančius įmonėms įvertinti savo AI sistemų riziką“, teigiama pranešime spaudai. Po kritikos, kad Hendrycks startuolis galėtų gauti naudos, jei įstatymo projektas bus priimtas, nes galbūt vienas iš auditorių SB 1047 reikalauja, kad kūrėjai pasamdytų, jis atsisakė savo „Grey Swan“ akcijų.
„Atsidaviau, kad pasiųsčiau aiškų signalą“, – sakė Hendrycksas elektroniniame laiške „TechCrunch“. „Jei milijardierius VC opozicija sveiko proto AI saugai nori parodyti, kad jų motyvai yra gryni, tegul jie seka pavyzdžiu.
Ką sako oponentai?
Augantis Silicio slėnio žaidėjų choras prieštarauja SB 1047.
Hendryckso „milijardieriaus rizikos kapitalo prieštaravimas“ greičiausiai reiškia Marco Andreesseno ir Beno Horowitzo įkurtą rizikos įmonę a16z, kuri griežtai priešinosi SB 1047. Rugpjūčio pradžioje rizikos įmonės vyriausiasis teisininkas Jaikumaras Ramaswamy pateikė laišką senatoriui Wieneriui. , teigiant, kad įstatymo projektas „apsunkins startuolius dėl savavališkų ir besikeičiančių slenksčių“, sukurdamas šiurpinantį poveikį AI ekosistemai. Tobulėjant dirbtinio intelekto technologijai, ji brangs, o tai reiškia, kad daugiau naujų įmonių peržengs tą 100 mln. USD ribą ir bus padengtos SB 1047; a16z teigia, kad kai kurie jų startuoliai jau gauna tiek daug už mokymo modelius.
Fei-Fei Li, dažnai vadinama AI krikštamote, rugpjūčio pradžioje nutraukė tylą SB 1047, Fortune stulpelyje parašydama, kad įstatymo projektas „pakenks mūsų besikuriančiai AI ekosistemai“. Nors Li yra gerai vertinama dirbtinio intelekto tyrimų pradininkė iš Stanfordo, ji taip pat, kaip pranešama, balandžio mėn. sukūrė AI startuolį pavadinimu World Labs, kurio vertė siekia milijardą dolerių ir remiama a16z.
Ji prisijungia prie įtakingų dirbtinio intelekto akademikų, tokių kaip kolega Stanfordo tyrinėtojas Andrew Ng, kuris pavadino įstatymo projektą „atvirojo kodo puolimu“, sakydamas kalbą Y Combinator renginyje liepos mėn. Atvirojo kodo modeliai gali sukelti papildomą riziką jų kūrėjams, nes, kaip ir bet kuri atvira programinė įranga, jie yra lengviau modifikuojami ir naudojami savavališkais ir galimai kenkėjiškais tikslais.
„Meta“ vyriausiasis dirbtinio intelekto mokslininkas Yann LeCun teigė, kad SB 1047 pakenks mokslinių tyrimų pastangoms ir yra pagrįstas „egzistencinės rizikos“ iliuzija, kurią pastūmėjo saujelė kliedesių centrų“, paskelbtame įraše apie X. Meta Llama LLM yra vienas. svarbiausių atvirojo kodo LLM pavyzdžių.
Startuoliai taip pat nėra patenkinti sąskaita. Jeremy Nixon, AI startuolio Omniscience generalinis direktorius ir AGI House SF, AI startuolių centro San Franciske įkūrėjas, nerimauja, kad SB 1047 sutriuškins jo ekosistemą. Jis teigia, kad blogi veikėjai turėtų būti baudžiami už kritinės žalos padarymą, o ne dirbtinio intelekto laboratorijas, kurios atvirai kuria ir platina technologiją.
„Sąskaitos centre yra didelė painiava, kad LLM gali kažkaip skirtis savo pavojingų pajėgumų lygiu“, – sakė Nixonas. „Mano nuomone, daugiau nei tikėtina, kad visi modeliai turi pavojingų savybių, kaip apibrėžta sąskaitoje.
Tačiau „Big Tech“, kuriai sąskaitoje tiesiogiai skiriamas dėmesys, taip pat panikuoja dėl SB 1047. Pažangos rūmai – prekybos grupė, atstovaujanti „Google“, „Apple“, „Amazon“ ir kitiems „Big Tech“ milžinams – paskelbė atvirą laišką, kuriame prieštarauja įstatymo projektui, kuriame teigiama, kad SB 1047 riboja žodžio laisvę ir „išstumia technologijų naujoves iš Kalifornijos“. Praėjusiais metais „Google“ generalinis direktorius Sundaras Pichai ir kiti technologijų vadovai pritarė federalinio AI reguliavimo idėjai.
JAV Kongreso narys Ro Khanna, atstovaujantis Silicio slėniui, antradienį paskelbė pareiškimą, kuriame prieštarauja SB 1047. Jis išreiškė susirūpinimą, kad įstatymo projektas „būtų neveiksmingas, baudžiantis pavienius verslininkus ir mažas įmones ir pakenkęs Kalifornijos naujovių dvasiai“.
Silicio slėnis tradiciškai nemėgsta, kai Kalifornija nustato tokį platų technologijų reguliavimą. 2019 m. „Big Tech“ ištraukė panašią kortelę, kai kitas valstijos privatumo įstatymas, Kalifornijos vartotojų privatumo įstatymas, taip pat grasino pakeisti technologijų aplinką. Silicio slėnis lobizavo prieš šį įstatymo projektą, o likus mėnesiams iki jo įsigaliojimo, „Amazon“ įkūrėjas Jeffas Bezosas ir 50 kitų vadovų parašė atvirą laišką, ragindami vietoj jo priimti federalinį privatumo įstatymo projektą.
Kas bus toliau?
Rugpjūčio 15 d. SB 1047 bus išsiųstas Kalifornijos Senato asamblėjos posėdžiams su bet kokiais pakeitimais, kurie bus patvirtinti. Pasak Wienerio, Kalifornijos Senate sąskaitos „gyja arba miršta“. Tikimasi, kad tai bus sėkminga, atsižvelgiant į didžiulę įstatymų leidėjų paramą iki šiol.
Anthropic liepos pabaigoje pateikė keletą siūlomų SB 1047 pataisų, kurias, pasak Wienerio, aktyviai svarsto jis ir Kalifornijos Senato politikos komitetai. „Anthropic“ yra pirmasis pažangiausio dirbtinio intelekto modelio kūrėjas, viešai pranešęs, kad nori dirbti su „Wiener“ dėl SB 1047, nors ir nepalaiko įstatymo, koks jis yra. Tai daugiausia buvo vertinama kaip įstatymo projekto laimėjimas.
„Anthropic“ siūlomi pakeitimai apima FMD atsisakymą, Generalinio prokuroro galių paduoti į teismą dirbtinio intelekto kūrėjams sumažinimą ir SB 1047 pateiktos informatorių apsaugos nuostatos panaikinimą. Wiener teigia, kad iš esmės teigiamai vertina pataisas, tačiau jam reikia kelių pritarimo. Senato politikos komitetai prieš įtraukdami juos į įstatymo projektą.
Jei SB 1047 patvirtins Senatą, įstatymo projektas bus išsiųstas Kalifornijos gubernatoriaus Gavino Newsomo stalui, kur jis galiausiai nuspręs, ar pasirašyti įstatymo projektą iki rugpjūčio pabaigos. Wieneris sako, kad su Newsom apie sąskaitą nekalbėjo ir nežino savo pozicijos.
Šis įstatymo projektas neįsigaliotų iš karto, nes FMD turėtų būti suformuota 2026 m. Be to, jei įstatymo projektas bus priimtas, labai tikėtina, kad iki tol jis susidurs su teisiniais iššūkiais, galbūt iš tų pačių grupių, kurios apie tai kalba. tai dabar.
Pataisymas: ši istorija iš pradžių buvo susijusi su ankstesniu SB 1047 kalbos juodraščiu apie tai, kas yra atsakingas už sureguliuotus modelius. Šiuo metu SB 1047 sako, kad išvestinio modelio kūrėjas yra atsakingas už modelį tik tuo atveju, jei mokymams išleidžia tris kartus daugiau nei pradinio modelio kūrėjas.