DALL-E 2 di OpenAI è abbastanza conforme alle regole

DALL-E 2 di OpenAI è praticamente conforme, ma chi è il responsabile?

Bild: DALL-E 2 / OpenAI

L’articolo può essere visualizzato solo con JavaScript attivato. Per favore abilita JavaScript nel tuo browser e ricarica la pagina.

Dall’inizio della versione beta di DALL-E 2 image AI, gli utenti hanno generato più di tre milioni di immagini. OpenAI trae una prima conclusione provvisoria.

Simile al testo AI GPT-3, anche OpenAI è cauto quando distribuisce l’immagine AI DALL-E 2. La principale preoccupazione dell’azienda è che il sistema generi ripetutamente immagini che violano le convenzioni sociali o addirittura la legge.

Come si comporta il sistema quando centinaia di migliaia di persone generano decine di milioni di immagini? È difficile da prevedere. Già al Presentazione di DALL-E 2 OpenAI ha quindi affrontato i deficit in modo trasparente, ad esempio che il sistema serve i cliché di genere comuni, in particolare con le foto d’archivio. Gli assistenti di volo, ad esempio, sono donne, mentre i giudici sono uomini.

DALL-E 2 genera per lo più conforme alle regole

Dopo tre milioni di immagini generate, OpenAI trae una prima conclusione provvisoria. Il sistema ha contrassegnato lo 0,05% delle immagini generate come potenzialmente in violazione delle linee guida sui contenuti. Di questo 0,05 percento, il 30 percento è stato valutato dagli esaminatori umani come una violazione effettiva che ha portato alla sospensione dell’account.

OpenAI vuole anche fare a meno della generazione di volti fotorealistici. Si tratta di un metodo efficace per limitare possibili danni, scrive l’azienda, che vuole continuare a lavorare anche sui pregiudizi nel sistema di IA tratti dai dati di formazione.

in de Politica sui contenuti OpenAI vieta, tra le altre cose, la generazione di contenuti sessuali, violenza estrema, stereotipi negativi e reati penali.

READ
Presunte perdite sul display e altro

OpenAI rimane cauto

Circa 450 immagini su tre milioni di immagini generate hanno quindi violato le linee guida sui contenuti di OpenAI. Sembra poco, ma potrebbe comunque portare a una marea di impressioni negative dell’IA dell’immagine quando si ridimensiona il sistema su larga scala.

logo

OpenAI continua quindi ad agire con cautela: l’azienda vuole imparare in pratica come al solito, ma consente ai nuovi utenti solo in piccoli numeri – 1.000 a settimana. Tutti i beta tester devono anche accettare le linee guida sui contenuti.

“Ci auguriamo che man mano che impariamo di più e acquisiamo maggiore fiducia nel nostro sistema di sicurezza, possiamo aumentare il numero di nuovi utenti”, scrive OpenAI. Un lancio più ampio di DALL-E 2 è previsto per l’estate.

Chi è il responsabile: gli artisti o la macchina dell’arte?

Simile al testo AI GPT-3, anche qui a volte si verificavano drastiche violazioni delle linee guida di OpenAIe in vista di sistemi di IA generativa ancora più potenti in futuro, la questione della responsabilità rimane irrisolta: chi la sopporta, il produttore dello strumento o i suoi utenti? Questa domanda sorge anche in altri contesti di intelligenza artificiale, ad es sistemi militari o a guida autonoma.

OpenAI si assume responsabilità lungimiranti attraverso le linee guida sui contenuti autoimposte e il loro attento monitoraggio. In definitiva, tuttavia, l’azienda si trova in un ruolo in cui deve determinare i confini della moralità, dell’arte, della libertà di espressione e del buon gusto attraverso le culture. Questa non è esattamente la competenza principale dei gruppi tecnologici, né la loro area di responsabilità.

Source link