How it's made

Creatività aumentata

I nostri strumenti di lavoro incorporeranno sempre più intelligenze artificiali, che progrediscono a velocità sorprendente. Ecco cosa c’è da sapere sugli strumenti attualmente più diffusi, che stanno creando un grande dibattito su come cambieranno i lavori creativi e quale sarà, in futuro, l’equilibrio tra essere umano e macchina.

Di Lorenzo Capitani | Su PRINTlovers 96

L’intelligenza artificiale sta progredendo a una velocità sorprendente e il suo uso si sta diffondendo a macchia d’olio: così sembra dal gran parlare che se fa da un po’ di tempo a questa parte. Sarà il grande scalpore suscitato dal rilascio delle beta pubbliche di strumenti come ChatGPT, usati dagli studenti per fare i compiti e dai siti di informazione per scrivere news, o di generatori di immagini come Dall-E che hanno invaso Internet e diviso il mondo tra entusiasti e catastrofisti che vedono in questa tecnologia l’imminente invasione delle macchine. «Il problema – scrive Stefano Nasetti nel suo “Il lato oscuro della luna” – non è la tecnologia, ma l'uso che se ne fa. Ogni cosa comporta dei rischi, l'importante è esserne consapevoli e valutare se il prezzo che paghiamo (meno la privacy) è adeguato a quanto riceviamo in cambio».
Diciamolo subito, la nostra quotidianità è già pervasa di AI più di quanto non si pensi, a dimostrazione di come questa tecnologia sia efficace e sia un valido supporto alle nostre attività. Ma cos’è un’Intelligenza Artificiale? «È un sistema automatizzato in grado di prendere decisioni ed eseguire compiti senza l'intervento umano. I sistemi di AI utilizzano algoritmi e dati per prendere decisioni e sono in grado di imparare dalle loro esperienze. Ciò avviene grazie all'apprendimento automatico, che prevede l'uso di grandi serie di dati per addestrare i sistemi a riconoscere modelli, comprendere il contesto e prendere decisioni». Questa è la definizione che ci ha dato il bot di ChatGPT e sintetizza tutta la complessità di questa tecnologia che si differenzia da qualsiasi altra invenzione umana proprio per il carattere di autonomia e auto-apprendimento che sottende la parola “intelligenza”. ChatGPT – sviluppato da OpenAI, una società della costellazione di Elon Musk – a detta degli esperti è al momento uno dei più potenti motori di AI, oggi tanto citato e usato proprio perché in grado, tra le altre cose, di creare testi precisi scientificamente, corretti formalmente, sensati semanticamente, e verrebbe da dire sorprendentemente umani. Non a caso, grazie a questa sua capacità ChatGPT ha raggiunto in un solo mese i 100 milioni di utenti registrati: TikTok, che deteneva il record, ce ne ha messi ben nove.

Oltre gli scenari possibili
Per gli inventori dell’intelligenza artificiale, all’inizio si trattava di andare oltre l’informatica e la scienza computazionale, basate sulla capacità di calcolo dei computer per la quale è sufficiente incrementare la potenza, e arrivare a realizzare entità in grado di ragionare, ovvero di risolvere problemi complessi a partire dalla conoscenza di dati e di leggi che governano determinati fenomeni, come dimostrare un teorema conoscendo i principi della matematica. Fino a quel momento qualsiasi macchina (anche quelle immaginate da Asimov) si basava su istruzioni date al momento della programmazione così complesse da dare l’illusione dell’intelligenza. Quando nel 1996 il computer IBM Deep Blue vinse a scacchi contro il campione del mondo russo Gary Kasparov aveva “semplicemente” la capacità di calcolo per valutare sistematicamente 200 milioni di possibili mosse al secondo, e per calcolare in tempo reale tutte le possibilità, scegliendo la più corretta. Il concetto di intelligenza entra in gioco quando non si danno più istruzioni per tutti i possibili bivi decisionali, ma è la macchina che sa creare letteralmente qualcosa che non c’era prima e ne dà una rappresentazione in linguaggio naturale o comunque comprensibile per l’uomo: per far questo si basa sì sulla programmazione, ma soprattutto sull’esperienza, ovvero sulla memorizzazione e sull’apprendimento di dati, sulla capacità di estrarre informazioni, assemblarle e manipolarle, fino a dedurre e ragionare sulla base di principi di probabilità, di statistica e di economia della soluzione. Infine, per saper comprendere ed esprimersi deve avere doti linguistiche basate sulla semantica distribuzionale, una branca della linguistica computazionale che utilizza grandi quantità di dati linguistici per comprendere il significato di parole e frasi.

Tutto intorno a noi
Dicevamo che l’AI è già tra di noi più di quanto sembri e lo è in quasi tutti i campi in cui ci sia una qualche elaborazione informatica a livelli più o meno sofisticati. Dai navigatori ai motori di ricerca, dai reel customizzati nei social alle pubblicità, dai traduttori ai bot, dai suggerimenti nei siti di e-commerce ai filtri neurali di Photoshop, allo speech recognition, alla manutenzione predittiva, al riconoscimento facciale... e la lista potrebbe essere ancora molto lunga. In tutti questi casi, non ci sono più solo semplici logiche “if… else”: così come noi umani non ci limitiamo a scegliere un bivio alla volta, ma deduciamo, astraiamo, ricordiamo, impariamo, ragioniamo, creiamo e agiamo, così fanno tutte queste AI. Come scrive il filosofo Cosimo Accoto nel suo libro Il mondo dato, questo è “un passaggio di civiltà epocale e non episodico”. Se chiedo a Siri o ad Alexa di suonare una canzone qualsiasi, l’AI terrà conto anche di quello che ho chiesto in passato (se l’ho fatto), di cosa ho ascoltato e per quanto, di quello che gli inserzionisti stanno sponsorizzando, di quello che stanno ascoltando gli altri, della mia posizione e chissà di quante variabili che non è dato nemmeno di sapere perché non solo gli algoritmi sono rigorosamente top secret, ma soprattutto sono in perenne evoluzione, come quelli usati da un cervello umano, e ormai non più controllabili totalmente. Dal suo rilascio in poi un’AI ha la capacità di elaborare, imparare ed evolvere in base alle sue iterazioni ed esperienze. Spesso, però, tendiamo ad attribuire a questi algoritmi caratteristiche umane, ma in realtà non esistono una comprensione e un'intelligenza come le intendiamo noi: si tratta di puro calcolo statistico. I risultati vengono generati in modo probabilistico. Come ha scritto Gary Marcus, professore emerito di psicologia e scienze neurali alla New York University e fondatore di Geometric Intelligence, società di machine learning, «GPT-3 non impara nulla sul mondo ma impara molto bene come le persone utilizzano le parole».

Algoritmi generativi
Non sono un caso il rilascio delle beta pubbliche e gratuite di tutta una serie di strumenti di AI e tutto il tam tam che ci sta intorno che invita a provarli per vedere le loro straordinarie abilità creative: in questo modo non si fa altro che addestrarle. Man mano che usate un assistente vocale questo impara da voi. Ma come fa? Si tratta di una tematica molto complessa, ma diciamo che uno degli aspetti in gioco è sicuramente il Machine Learning, ovvero la capacità di addestrare un modello: più aumenta il numero di esempi (di dati) che forniamo alla macchina, più il modello diventa preciso, e più diventa preciso più i modelli predittivi diventano estremamente efficienti. Pensate che capacità ha l’AI dietro a Siri che sa riconosce il titolo inglese di una canzone pronunciato da un non inglese che non lo pronuncia correttamente: eppure capisce. Ora la grande sfida per l’AI è capire correttamente quello che le si chiede in un linguaggio naturale e che spesso veicola un significato diverso da quello interpretabile sulla base della sola struttura morfosintattica: un esempio su tutti, il sarcasmo o l’ironia. Qualche tempo fa si diceva che le macchine non erano brave con l’ironia: provate ora a fare una battuta a Siri, a usare un gioco di parole o a insultarla velatamente.

Gamification finalizzata
Glielo abbiamo insegnato soprattutto noi interagendoci e magari divertendoci a dirle le parolacce o a prenderla in giro. Così come siamo noi ad addestrare l’AI di Amazon, di Apple o di Google quando carichiamo le nostre foto nello spazio che ci mettono a disposizioni gratis. Un altro esempio di AI a portata di mano è il software dell’iPhone che riconosce i volti delle persone salvate nella libreria di Foto: li riconosce nel tempo man mano che crescono o invecchiano, ma riconosce anche fiori, alberi, piante, animali, luoghi (un’icona sulla foto mostra il corretto riconoscimento) e ci dice il nome, il tipo, la specie, la razza, ne dà informazioni e cerca in Internet immagini simili. Noi ci divertiamo con la macchina e lei impara da noi che correggiamo i suoi errori: quando per esempio non ci capisce e noi ripetiamo, quando diciamo che un contenuto non ci interessa, quando mettiamo o non mettiamo un like, quando skippiamo un post o ci soffermiamo, quando seguiamo un percorso suggerito o quando lo ignoriamo.
Il filtro Ritratto Intelligente di Photoshop che dà la possibilità di modificare un volto sulla base di una serie di parametri legati alle espressioni, all'età, alla posizione della testa e delle pupille e alla direzione della luce, implica che il software sappia riconosce ciascuna di queste parti e che lo sappia fare avendo imparato da tutte le immagini che milioni di utenti hanno elaborato con i filtri intelligenti che vengono acquisite, elaborate e condivise con i server di Adobe: non è un caso se questi filtri funzionano solo se c’è connettività e se c’è uno specifico consenso da dare nella sezione Privacy delle Preferenze del programma. E per questo esistono versioni online di quasi tutti i programmi di elaborazione immagini, video e audio e di conversione cross formato.
Secondo Fabrizio Falchi, ricercatore dell'Istituto di Scienza e Tecnologie dell'Informazione del CNR di Pisa:  «con le regole e la programmazione classica non riusciamo a insegnare alla macchina a riconoscere un gatto. Il modo migliore è definire un'architettura in grado di apprendere ed esporre la macchina a tante foto di animali, spiegandole quali sono gatti e quali non lo sono. Autonomamente la macchina sviluppa le competenze necessarie a riconoscere il gatto. Come i bambini che imparano a riconoscere un gatto, ma nessuno spiega loro esattamente come procedere. Di fatto vedono degli esempi e con il tempo imparano a distinguere un gatto da un cane».

L'arte è nei nostri occhi, non negli algoritmi
Non è detto che tutto questo in sé sia un male perché in questo modo l’AI ha raggiunto livelli tali da poter creare prodotti, servizi e bisogni e farne modelli di business. Adobe stessa, facendoci giocare con il filtro Pelle Liscia, ha sviluppato un’AI in grado capire se un’immagine è stata modificata o se parti di essa sono state clonate, alterate o eliminate, ricercando cambiamenti nei colori primari, analizzando il rumore e le variazioni di luminosità, sapendo riconoscere gli artefatti reali creati dalle fotocamere. DVLOP e SLR Lounge, specializzate nello sviluppo di preset per Lightroom, a gennaio hanno rilasciato Impossible Things, un editor di foto basato sull'intelligenza artificiale che funziona in modo nativo all'interno di Lightroom ed è in grado di migliorare in automatico e in modo assolutamente naturale le foto. Secondo gli sviluppatori, l’AI, addestrata su oltre un milione di file, 200 diversi modelli di fotocamera e più di 300 obiettivi, è in grado di riconoscere e modificare correttamente ogni scenario comune che un fotografo deve affrontare, comprese le scene con illuminazione mista, scarsa illuminazione e alta gamma dinamica.
Shutterstock, dopo aver dato accesso al suo immenso database di immagini a Dall-E, ha implementato Shutterstock.AI, un generatore di immagini basato proprio su questa tecnologia e su EXAONE di LG. Lo strumento di creazione permette di partire da una serie di template per i più comuni output, dalle classiche foto ai post per i social, e di creare immagini dando all’AI un vero e proprio briefing; in più il motore predittivo suggerisce risorse creative che avranno successo in base alle sue previsioni. In questo modo è possibile ottenere informazioni immediate su modelli, immagini e colori per creare campagne e individuare le tendenze nel momento stesso in cui si stanno sviluppando. Ma da dove arrivano tutte le immagini usate dalle AI? Stability AI, per esempio, competitor di Dall-E e incluso in Midjourney e di proprietà di Stable Diffusion, è stato addestrato da tre enormi database di 2,3 miliardi di immagini aggiornate al 2020, raccolte da LAION, associazione no-profit dedita alla diffusione del machine learning, che le ha ottenute a sua volta da Common Crawl, organizzazione no-profit che raccoglie miliardi di pagine web ogni mese e le rilascia come enormi set di dati: un’analisi su un campione di 12 milioni di immagini ha rivelato che il 47% proviene da soli 100 domini, soprattutto Pinterest, e che i blog ospitati su wp.com e wordpress.com sono un’enorme fonte dati così come Smugmug, Blogspot, Flickr, DeviantArt, Wikimedia e Tumblr. Su questi dataset, però, non si effettuano controlli sui contenuti caricati, ma solo moderazione sui file generati: per esempio, le immagini per adulti caricate su Tumblr, che sul social si possono vedere solo se si è maggiorenni, finiscono normalmente nei dataset di apprendimento, così come quelle di guerra, violenza o offensive, e concorrono all’apprendimento delle AI. A scoprirlo è stato il sito haveibeentrained.com che ha sviluppato un motore per effettuare ricerche all’interno del dataset di immagini per trovare media usati in modo non autorizzato da parte dell’autore. Chi decide cosa fare con questi contenuti sensibili, vista la capacità di apprendimento dell’AI? Chi le filtra? A sua volta un’AI opportunamente addestrata? Chi decide se un contenuto è offensivo o violento? E lo è per chi?

Prompt: un manichino con un paio di jeans e una t-shirt rossa
Eric Groza, direttore creativo dell’agenzia pubblicitaria TBWA, ha utilizzato la piattaforma di generazione d’immagini Midjourney per ipotizzare una collaborazione fra IKEA e Patagonia: il risultato è sorprendente. Qualcosa di simile ha fatto Alessio Garbin, Data & Digital Marketing Coordinator di Barilla, realizzando una serie di illustrazioni per un’ipotetica campagna per i pancake Mulino Bianco, posizionati su sfondi variopinti. Entrambi gli esempi sono pubblicati su LinkedIn. E Jason M. Allen a fine 2022 ha vinto un premio a un concorso per artisti emergenti con “Theatre d’opéra spatial”, creata interamente con la sua AI. Midjourney è uno dei software più interessanti e all’avanguardia tra le AI per la generazione di immagini tramite descrizione testuale, ma non è il solo. Google ha il suo Imagen e OpenAI ha Dall-E. Se allarghiamo ancora il campo, di sistemi di generazione e manipolazione di immagini su base algoritmica ce ne sono tanti, e sono sempre più “intelligenti”. L’uso è semplice: si inserisce una descrizione testuale e l’AI la elabora generando una possibile immagine che tenga conto dell’input. Su Il Poligrafico 212 Luca Magnoni e Pietro Vito Spina si sono chiesti se le AI sono in grado di raggiungere la creatività umana mettendo alla prova proprio Midjourney su diversi temi. Il risultato, tra loghi, immagini stile impressionista e di denuncia, è incredibile e allo stesso modo perturbante in senso freudiano, nel senso che tutte queste creazioni generano una sorta di inquietudine irrazionale, per l’aderenza alla realtà e per il modo in cui sono state generate. Allo stesso tempo, da scettici e sospettosi quali siamo come esseri umani davanti alle novità, siamo portati a cercare, per dirla alla Neo, l’errore nella Matrix, quel montaliano “buco nella rete” che innegabilmente c’è: sarà che le immagini campione di addestramento, per opportunità tecniche, mediamente subiscono un downsampling a 512 x 512 px, sarà che l’output stesso è come se fosse abbozzato, spesso ha parti fuori posto, mancanti, illogiche, eppure si ottengono risultati assolutamente degni di credibilità. Un esempio è l’esperimento fatto dai fotografi francesi Alexis Gerard e Annabelle Matter che hanno sfidato per Le Figaro Magazine (numero dell’11/11/2022) l’AI di Dall-E 2 nel creare immagini ispirate a brani di Marcel Proust, mentre loro fotografavano gli stessi luoghi: le immagini sono del tutto comparabili e a volte sovrapponibili. O l’esperimento fatto dal canale YouTube Codex Community che nel video “How to use AI Art and ChatGPT to Create a Insane Web Designs” (
https://youtu.be/8I3NTE4cn5s) ha provato a realizzare un sito web senza scrivere una linea di codice, grafica compresa.

Uomini "aumentati" dagli algoritmi
Non resta allora che usare queste AI senza il timore della novità e senza l’atteggiamento luddista di chi teme il nuovo e paventa che in un futuro prossimo si farà a meno degli umani per lavori creativi, consci piuttosto del fatto che sono utili, al di là dell’R&D conoscitiva, come valido supporto per un brainstorming ovvero «per avviare un lavoro, preparare un guscio da riempire, sbrigare compiti meccanici e noiosi», come scrive nel suo blog QuickLoox Lucio Bragagnolo, giornalista divulgatore ed esperto del mondo Apple. Non si scrive un brief in un campo testuale ed esce la campagna fatta, né si descrive la foto che si vorrebbe e la si ottiene, almeno non ancora. È come guardare in un caleidoscopio, ogni volta che si gira il tubo la suggestione cambia, ma siamo ben lontani dall’ottenere un prodotto finito. Di più, è come avere qualcuno a disposizione per generare infinite bozze dell’idea che si ha in testa. Tutte le testimonianze di chi ha fatto esperimenti seri dicono che comunque un esperto ci vuole, così come ci vogliono una post-produzione e un controllo, insomma una supervisione umana. Diverso è il discorso sui risultati che si ottengono se all’AI si sottopongono problemi o quesiti tecnico-scientifici: Codex di OpenAI, per esempio, converte davvero in Python istruzioni date in linguaggio naturale o Quizard AI risolve problemi di fisica o matematica, passaggio per passaggio.
Sempre più i nostri strumenti di lavoro avranno incorporate intelligenze artificiali. Come dimostra DiffusionBee che installa su mac l’AI di Stable Diffusion con una serie di comandi che in text-to-image consentono di operare sull’immagine generata (o caricata) modificandola, creando parti mancanti, aggiungendo o togliendo elementi presenti, fino ad aumentarne la risoluzione. Se non si vuole partire da un proprio prompt (il comando di interrogazione con il quale si dialoga con l’AI) c’è una libreria di immagini già generate dai vari bot o da altri utenti simile a quella di ArtHub.ai che offre una sconfinata collezione di immagini metadatate e classificate che possono essere usate come base di partenza. Anche Woodwing nel suo DAM ha introdotto strumenti di AI come il riconoscimento facciale o di oggetti, il reverse image searching in stile Google e li sfrutta per l’euristica e la creazione di smart collection, ma anche per automatizzare renditions e operazioni di editing degli asset come il cropping, lo scontorno e l’isolamento di un soggetto dal fondo. L’AI di Woodwing o di Vision AI di Google consente anche l’auto-tagging, facendoci risparmiare le ore di metadatazione necessarie a rendere ricercabili i nostri prodotti: lo fa con noi, secondo le nostre istruzioni e intenzioni, lo fa seguendo i trend del momento, traducendo, considerando sinonimi, slang e storpiature, e lo fa suggerendoci tassonomie che magari non avevamo nemmeno immaginato. Insomma, l’AI è a portata di clic, dobbiamo solo capirla, sfruttarla e lavorarci in team. Un algoritmo di DeepMind ha recentemente risolto un problema matematico aperto da 50 anni, poi due ricercatori austriaci hanno trovato una soluzione più efficiente. Non hanno battuto l’algoritmo, ci hanno solo collaborato.

 


21/04/2023


How it's made