Intelligenza artificiale, diciassette scrittori statunitensi hanno fatto causa a OpenAI

OpenAI è stata accusata di aver utilizzato testi di scrittori protetti da diritto d’autore per “addestrare” ChatGPT. Ecco la vicenda

Un gruppo di diciassette autori statunitensi affiliati alla Authors Guild, un’associazione professionale di scrittori, ha recentemente presentato un’accusa contro la società tecnologica OpenAI. L’accusa si basa sul sospetto che OpenAI abbia utilizzato illegalmente i testi dei loro libri, che sono protetti da diritto d’autore, per l’addestramento del suo software di intelligenza artificiale, ChatGPT. Questo gruppo comprende autori di grande fama, come George R. R. Martin, noto per la serie di libri “Cronache del ghiaccio e del fuoco”, da cui è stata tratta la serie televisiva “Game of Thrones”, John Grisham, autore di romanzi gialli a sfondo giudiziario, e Jonathan Franzen, uno dei più importanti romanzieri contemporanei americani, autore di opere come “Le correzioni” e “Libertà”.

Diciassette autori statunitensi contro OpenAI, cosa c’è di vero?

Il 19 settembre, è stata presentata una causa davanti a un tribunale di New York con l’obiettivo di ottenere un’ingiunzione che impedirebbe a OpenAI di continuare a utilizzare opere protette da copyright per l’addestramento di ChatGPT. Questo software si basa su un modello statistico che è stato “addestrato” utilizzando una vasta quantità di testi scritti da esseri umani, al fine di predire in modo accurato le parole più appropriate da utilizzare in un determinato contesto. Il gruppo di autori coinvolti nella causa chiede anche un risarcimento di 150.000 dollari per danni derivanti dalla presunta violazione del diritto d’autore.

Icona di ChatGPT su uno smartphone
Immagine | Pixabay @RObertWay – Fortenews.it

A luglio, sia OpenAI che Meta erano state denunciate da tre scrittori per l’uso presunto illegale delle loro opere protette da copyright. Un portavoce di OpenAI ha dichiarato che l’azienda sta impegnando in scambi costruttivi con numerosi artisti, compresi quelli rappresentati dalla Authors Guild, al fine di comprendere e discutere le loro preoccupazioni riguardo all’intelligenza artificiale.

La nuova causa afferma che tra i numerosi testi utilizzati da OpenAI per addestrare i modelli linguistici GPT-3.5 e GPT-4, su cui si basano ChatGPT e altri chatbot, ci sarebbero interi libri caricati online sotto forma di ebook piratati. Questi libri, secondo la causa, sono scritti, curati e pubblicati da professionisti, e rappresentano una fonte particolarmente preziosa di dati per l’addestramento di tali modelli statistici.

Dopo essere stato addestrato con vari testi, ChatGPT ha dimostrato la capacità di generare racconti e storie piuttosto estesi. Questo ha portato diverse persone a utilizzare ChatGPT per scrivere interi libri, che sono stati successivamente venduti su piattaforme come Amazon o attraverso canali più tradizionali. La Authors Guild ha citato come esempio alcuni tentativi recenti di far generare a ChatGPT gli ultimi due volumi delle Cronache del ghiaccio e del fuoco, due libri molto attesi dai fan della serie da oltre dieci anni, ma che l’autore George R. R. Martin non ha ancora completato.

Ma che cosa sono OpenAI e ChatGPT? La storia di come OpenAI è arrivata a presentare ChatGPT è interessante e complessa. Nel novembre del 2022, l’azienda ha lanciato ChatGPT, un’IA che può simulare conversazioni umane e ha ottenuto una grande attenzione mediatica. La decisione di aprire ChatGPT al pubblico è stata presa rapidamente da Sam Altman, co-fondatore e CEO di OpenAI. È importante notare che, nonostante l’urgenza di questo lancio, ChatGPT si basava ancora sul modello linguistico GPT-3, che aveva già due anni di vita, mentre OpenAI stava già lavorando su GPT-4, una versione più avanzata che è stata successivamente rilasciata.

Nonostante questa situazione, ChatGPT ha rapidamente guadagnato un milione di utenti in soli cinque giorni, dimostrando l’interesse e il successo di OpenAI nel campo dell’intelligenza artificiale. Tuttavia, la storia di OpenAI è stata oggetto di controversia, poiché l’organizzazione è nata come un’entità senza scopo di lucro, ma nel corso degli anni, dopo un’alleanza con Microsoft, molti ritengono che abbia cambiato la sua missione originale. Questo cambiamento ha portato a critiche, anche da parte di Elon Musk, uno dei fondatori di OpenAI, che ora esprime preoccupazioni sull’approccio dell’azienda.

OpenAI è stata fondata nel 2015 da Sam Altman ed Elon Musk con l’obiettivo di promuovere e sviluppare un’intelligenza artificiale “amichevole” verso l’umanità. Inizialmente, Musk era preoccupato dalle implicazioni delle intelligenze artificiali e riteneva che OpenAI sarebbe stata l’organizzazione in grado di evitare potenziali incidenti nel campo dell’IA.

Tuttavia, nel 2018, Musk ha lasciato OpenAI a causa di conflitti di interessi e altri fondatori e dipendenti hanno rifiutato la sua offerta di prendere il controllo dell’azienda. Questa mossa ha comportato la perdita dei finanziamenti promessi da Musk, lasciando OpenAI a coprire i costi elevati associati all’allenamento delle intelligenze artificiali da sola.

La presentazione di Google Brain di una tecnologia chiamata Transformer ha spinto Musk a temere che OpenAI stesse rimanendo indietro, accelerando la sua uscita dall’azienda. Questo ha portato OpenAI a cambiare la sua strategia e adottare la tecnologia Transformer, che è essenziale per il funzionamento di ChatGPT.

Nel 2019, OpenAI ha annunciato la creazione di OpenAI LP, una divisione ibrida tra non profit e azienda a scopo di lucro, al fine di trovare nuovi fondi. Hanno anche siglato un accordo da un miliardo di dollari con Microsoft, che ha fornito la potenza di calcolo necessaria per le intelligenze artificiali di OpenAI. Questo accordo si è poi trasformato in una partnership multimiliardaria dopo il successo di ChatGPT.

OpenAI è stata fondata con l’obiettivo di avere un’influenza diversa nel settore dell’intelligenza artificiale, basata su collaborazione, cautela e apertura accademica. La sua missione originale era quella di garantire che lo sviluppo dell’intelligenza artificiale generale (AGI), definita come sistemi altamente autonomi che superano le prestazioni umane nella maggior parte dei lavori economicamente rilevanti, fosse di beneficio per tutta l’umanità.

Tuttavia, nel corso del tempo, sono sorti dubbi sulle vere intenzioni di OpenAI a causa di cambiamenti nella sua strategia e nelle politiche di condivisione dei dati. Questi dubbi hanno alimentato preoccupazioni etiche e morali riguardo al controllo e all’accesso alle tecnologie dell’IA sviluppate dall’azienda. La percezione di un cambiamento di direzione ha sollevato interrogativi sulla coerenza tra la missione originale di OpenAI e le azioni successive dell’azienda.

OpenAI, inizialmente, aveva promosso un approccio aperto e accademico per evitare il rischio che una singola azienda sviluppasse un’intelligenza artificiale generale (AGI) troppo potente, che potesse sfuggire al controllo o essere utilizzata in modo non “amichevole”. Questa preoccupazione ha portato OpenAI a seguire un modello open-source nei primi anni della sua esistenza, con il codice sorgente pubblico e aperto alla community.

Tuttavia, questo approccio è stato rivisto. Ilya Sutskever, co-fondatore di OpenAI, ha dichiarato che avevano “sbagliato” e che, se si considera che un’IA o un’AGI potrebbe diventare estremamente potente, allora non ha senso mantenerla open source. Questo cambiamento di mentalità ha portato a una revisione della politica di OpenAI verso un approccio meno aperto e più controllato alla distribuzione dell’IA.

Gestione cookie