Skip to main content

Alcuni provider di intelligenza artificiale si trovano nel mezzo di battaglie legali sull’uso (apparentemente) non autorizzato della proprietà intellettuale altrui per l’addestramento dei modelli di linguaggio. In ogni caso, coloro che utilizzano software di intelligenza artificiale addestrato esclusivamente sui propri dati possono dormire sonni tranquilli.

Richieste di trasparenza e certificazione dei dati

Tuttavia, coloro che si rivolgono a servizi esterni, magari addestrati su dati generici, dovrebbero prendere in considerazione alcune precauzioni suggerite dalla ricerca scientifica. È consigliabile richiedere ai fornitori di tali servizi di dichiarare i dati utilizzati per l’addestramento dell’intelligenza artificiale specifica o di certificare che siano stati utilizzati con l’autorizzazione dei legittimi proprietari, se soggetti a vincoli di copyright o privacy.

Manleva

Qualora ciò non fosse possibile, è prudente richiedere una manleva, una garanzia legale che esenta dalle responsabilità nel caso in cui i dati utilizzati per l’addestramento non fossero stati completamente liberi da restrizioni d’uso.

Rischi di divulgazione

Un’altra questione rilevante è la protezione dei propri dati sensibili. Ad esempio, se uno studio medico, uno studio legale o un programmatore aziendale utilizzano un’intelligenza artificiale online come ChatGPT, Microsoft Copilot o Bard di Google per elaborare informazioni sensibili sui propri pazienti, clienti o prodotti, esiste il rischio che tali dati vengano assimilati dall’intelligenza artificiale e possano essere divulgati a chiunque utilizzi tecniche di attacco note agli esperti.

Precauzioni

In sintesi, è fondamentale essere consapevoli dei rischi associati all’uso di servizi di intelligenza artificiale e adottare le dovute precauzioni per proteggere i propri dati e la privacy.

Ti è piaciuto questo articolo? Condividilo con i tuoi amici!