AI-generert kode og juridisk risiko - hva bør teknologiselskaper tenke på?

Advokat Erik Sletner og advokatfullmektig Maiken Ellingsen i CLP er i dag ute i Shifter med klare råd om juridisk risiko ved bruk av AI-generert kode.
Bruk av AI-verktøy til å generere kode er i dag utbredt i tech-bransjen, men mange selskaper mangler tilstrekkelig kontroll på de juridiske risikoene som følger med. Uten klare rutiner kan ukritisk bruk av AI-generert kode få store konsekvenser.
De juridiske utfordringene knytter seg særlig til to forhold: hva som mates inn i AI-verktøyet, og hvordan man bruker det som kommer ut. På outputsiden er en kjent risiko at AI-modeller kan memorisere og reprodusere kode de er trent på, noe som potensielt kan utløse lisensforpliktelser som i verste fall tvinger selskapet til å offentliggjøre hele sin kodebase. På inputsiden er blant annet faren at sensitive opplysninger og proprietær kode lekkes til AI-verktøyet - særlig i større selskaper der ansatte bruker personlige brukerkontoer fremfor enterprise-lisensierte profiler.
Spørsmålet om opphavsrett er tett knyttet til dette: Kode som genereres direkte av AI uten vesentlig menneskelig bearbeiding vil i utgangspunktet ikke være beskyttet, men grensen for hva som utgjør tilstrekkelig bearbeiding er rettslig uklar. Manglende eierskap til egen kode kan dessuten ramme selskaper i oppkjøpssituasjoner, og problemstillingen er nå i ferd med å bli en fast del av due diligence-prosesser.
CLPs råd til tech-selskaper er å etablere klare retningslinjer for bruk av AI, herunder prosesser for godkjenning av verktøy, definerte ansvarsroller for kodegjennomgang og opplæring av ansatte i kritisk bruk av AI.Ta gjerne kontakt med oss dersom du ønsker å diskutere hvordan slike retningslinjer kan se ut for din virksomhet.
Saken kan du lese her (hvis du har abonnement hos Shifter).

