§Perturbare lo spazio latente
Intelligenze artificiali e pratiche artistiche
TERMS OF YOUSER
di Lucia Bergamaschi

TERMS OF USE

Nelle Condizioni d’uso di OpenAI aggiornate al 14 novembre 2023 nella sezione sul contenuto del servizio si legge: «Your Content. You may provide input to the Services (‘Input’), and receive output from the Services based on the Input (‘Output’). Input and Output are collectively ‘Content’». I Terms of use (conosciuti in inglese anche come terms of service e terms and conditions) rientrano all’interno di una particolare tipologia contrattuale vicina alle condizioni generali di contratto utilizzati per esempio dagli istituti bancari. La peculiarità delle clausole presenti in queste forme contrattuali sta nell’essere predisposte/stabilite unilateralmente da una parte contrattuale mentre l’altra parte ha poca o nessuna capacità di negoziare termini più favorevoli. Pertanto, chiunque decida di usare il servizio OpenAI LLC deve accettare un contratto che ha alcuni requisiti contenutistici a tutela del destinatario/utilizzatore, ma che non può essere modificato, costringendo così l’utilizzatore a decidere se accettare le clausole o non usufruire del servizio. Quello che interessa non è tanto il livello giuridico, ma colpisce come nel caso dei Terms of use(r) di OpenAI una delle parti, quella assoggettata alle condizioni contrattuali, sia individuata attraverso un informale e confidenziale allocutivo tu.
Questo tu destinatario delle condizioni di uso del servizio OpenAI è al contempo un soggetto attivo, un fornitore di input/input provider e interlocutore del Servizio che fornisce output sulla base degli input ricevuti. Input e Output creano poi quello che, sempre nei Terms of Use, viene definito contenuto collettivo. 

Se l’utente, quindi, non può influenzare il contenuto/le condizioni del servizio, chi è questo “tu” e come viene creato quello che le condizioni del servizio chiamano contenuto collettivo? Chi sono gli attori principali in un quadro così definito e qual è la relazione tra questi tre livelli – Utente, Servizio, Contenuto? [1].
La scelta di prendere come esempio, tra tante, la piattaforma OpenAI è soprattutto dovuta al grande successo che ha avuto di recente (dicembre 2022) con il suo software ChatGPT in grado di simulare una conversazione con un essere umano tanto da raggiungere «1 million users 5 days after its launch». OpenAI si definisce «an AI research and deployment company. Our mission is to ensure that artificial general intelligence benefits all of humanity». Si tratta dunque di un laboratorio di ricerca sull’intelligenza artificiale costituito da due società, una no-profit (OpenAI Inc.) e l’altra sussidiaria for-profit (OpenAI Global LLC). OpenAI è conosciuta altresì per aver sviluppato l’algoritmo di intelligenza artificiale capace di generare immagini a partire da descrizioni testuali dal nome DALL·E che a partire dal settembre 2023 si è integrata, nella versione a pagamento, a ChatGPT. Un algoritmo è così capace di generare immagini all’interno di una conversazione testuale. 

Queste le premesse per avere delle coordinate di movimento nella nuova e tanto discussa dimensione dell’intelligenza artificiale e di « an average of 34 million images [created] per day» (Valyaeva, 2023) che riflettono in maniera quasi inequivocabile il fenomeno culturale della computazione. Se torniamo ai nostri protagonisti: user, servizio e contenuto, non possiamo che notare come testo e immagine si fondano, o quantomeno, si perdano le loro delimitazioni all’interno di questo sistema basato su “effective procedure, algoritmi o istruzioni che ‘ragionano’ in termini di «if-then statements» (Ippolita, 2017). Ogni lettera di parola, di frase, di punto di paragrafo di capitolo del paper è tanto importante quanto sono insignificanti le parole, gli sfondi, i dettagli e i testi per il modello allenato alla generazione di immagini da testo o di testi affettivi.
Ma forse questo è un possibile nodo di incontro tra diritto e tecnologia, laddove il tu, sono tutte le «active form» che informano questa infrastruttura (Easterling, 2014) [2].

Anna Ridler, "Mosaic Virus" (2019) installazione video a tre schermi,ognuno dei quali rappresenta un tulipano che cambia nel tempo controllato dal prezzo del bitcoin. Screenshot del video di Anna Ridler

YOUSER

Hito Steyerl nel suo testo dal titolo A Sea of Data: Pattern Recognition and Corporate Animism inizia proprio con questo tu (Hey you!) riportando quella che per Louis Althusser è la formula primaria di (auto)riconoscimento, ma anche di controllo sociale: «In that moment the person is supposed to recognize himself both as subject (you) and as subjected to the policeman’s authority (hey!)» (Steyer, 2018). Ma “Hey you!” è anche un «basic act of human communication» e per questo inequivocabile, come nel caso di George Michael arrestato in una toilette di Beverly Hills per atti osceni in luogo pubblico dopo aver «mistook a policeman yelling ‘Hey you’ for a lover» (Steyer, 2018). Se torniamo al contesto dei nostri Terms of Use, questo tu è rivolto agli utenti [3]. In questo tipo di ‘pseudo-ambiente’ nessuno è un essere umano o un cittadino o una persona o un cliente o un individuo, siamo tutti utenti. Il testo Tecnologie del dominio ci offre una guida per navigare nei fitta rete di significati (colma di ambivalenze e incomprensioni) delle parole delle tecnologie, e alla voce utente troviamo che rimanda a due dimensioni semantiche precise e, in parte, contraddittorie. Definita come «I’identità generale delle persone quando si trovano connesse sulla rete di Internet», da un lato, è «colui che usa», ossia che non fa, non produce, semmai consuma, dall’altro, è il «soggetto attivo della propria passività, in un ambiente costruito per contenerlo» (Ippolita, 2017, pp.267-268) [4]

A questo il testo collega il termine user experience (UX) come esperienza facile, gratificante e giocosa a cui si accede solo dopo avere dato il proprio assenso (mai abbastanza informato) ai Termini di Servizio (Ippolita, 2017, pp.268) [5]. Benjamin Bratton fa slittare ancora di più il termine user verso quella che definisce essere solo «a position within a system, not a type of entity or identity or species» (Bratton, 2016). Nel suo trattato teorico dal titolo The Stack riarticola i termini tecnici nel contesto più ampio dei loro effetti sul mondo [6]. L’utente, nella costruzione teorica di Bratton, è uno dei livelli (assieme a terra, cloud, indirizzo, città e interfaccia) della mega struttura del nostro mondo in rete sempre più tecnocratico. In quanto posizione, qualsiasi entità (animale, vegetale o minerale) [7] in grado di interagire con gli altri livelli della struttura, può avere la «driving agency» dell’utente [8]. Un esempio molto chiaro di come Bratton intende la megastruttura The Stack è quello della super-autostrada: «whether one sees the Internet as a ‘superhighway’ or the hundreds of millions of cars in motion at any one time as very large ‘data packets’ makes all the difference» (Bratton, 2016). Se quindi lo User non si identifica più con la persona fisica, ma la persona è uno dei tanti insiemi di dati, che ruolo gioca in questa tecnologia? [9] Può essere considerata una forma attiva che, ad esempio, determina il modo in cui gli oggetti e i contenuti sono organizzati e diffusi? [10].

 

SERVICE

Eryk Selvaggio, artista e designer che si occupa di generatività e intelligenza artificiale, ci offre una minuziosa panoramica “alla Bosch” sul complesso sistema di funzionamento delle reti neurali generative che, non a caso, intitola Cybernetic Forests. Attraverso una serie di video-registrazioni di lezioni tenute nel 2023 presso la Bradley University e archiviate sulla sua pagina web (accessibili a tutti), ci spiega come questi input descritti nei Term of Use, siano in realtà prompt attraverso i quali gli utenti navigano all’interno di immensi insiemi di dati per orientare le informazioni e dare istruzioni all’algoritmo su come interpolare un’immagine da tutti quei dati [11]. Digitando una parola o una frase l’utente quindi attiva le categorie presenti nei datasets, ad esempio la categoria ‘fiore’, e iscrive la categoria nell’immagine. L’immagine generata è una variazione delle immagini del dataset su cui è stato addestrato il generatore di immagini basato sull’intelligenza artificiale (ad esempio, DALL-E). I modelli di intelligenza artificiale, come DALL-E, utilizzano sistemi per l’apprendimento automatico (machine learning systems) addestrati su dataset di larga scala (cd. training datasets) [12].

Utilizzando questi dataset costituiti da migliaia o addirittura milioni di immagini raccolte su Internet, un altro tipo di algoritmo classifica le informazioni in base a ciò che gli ‘ingegneri’  intendono costruire [13]. Nel caso di OpenAI si parla di modello di diffusione che a differenza dei GANs (Generative Adversarial Networks) lavora con le immagini e le relative didascalie. Ogni volta che etichettiamo un’immagine lavoriamo per una rete neurale, come CLIP (Contrastive Language-Image Pre-Training) [14], fornendo un parametro di riferimento per la classificazione.

I prompt, pertanto, vengono utilizzati direttamente e indirettamente come elementi semantici (unità di informazioni) che consentono all’algoritmo di ricostruire un’immagine dal rumore [15]. Il modello di diffusione si basa su algoritmi probabilistici e predittivi e necessità, così, di una vasta dimensione e complessità di datasets per creare immagini a partire da categorie, sottocategorie e dalle relazioni tra loro. Assumono così centralità non tanto le immagini o le parole e i loro i significati, ma i dati, i pattern, le categorie e le strutture che definiscono questa generazione di immagini sintetiche. Questo porta ad una serie di conseguenze tra cui la deflazione simbolica, dal momento che gli input sono dati (digitali o digitalizzati) presenti in sequenze di bit che devono attenersi ad una serie di criteri affinché l’algoritmo sia in grado di operare con essi, ma anche una trasformazione dei dati sulla base delle credenze, convinzioni e dell’immaginario delle persone che mettono a punto gli algoritmi e di coloro che li pagano per farlo [16].

Un lavoro molto interessante è Mosaic Virus di Anna Ridler, dove l’artista pone l’attenzione sulle tracce e imperfezioni che gli algoritmi portano ancora con sé durante l’allenamento [17]. Mettendo in parallelo la speculazione Bitcoin con la Tulipmania (1630, Netherlands), «brings together ideas around  capitalism, value, and collapse from different points in history» (Ridler, 2023). L’artista crea un proprio dataset di immagini di tulipani ed allena un algoritmo GANs alla produzione di altre immagini di tulipani il cui segno distintivo, le strisce/stripes, variano a seconda delle fluttuazioni del mercato Bitcoin. Durante la Tulipmania, infatti, le strisce, dovute a causa di una infezione della pianta, erano un valore economico aggiunto che aumentava la desiderabilità dei tulipani, favorendo prezzi speculativi. Tre sono gli elementi che più colpiscono in questo progetto: l’importanza data alle imperfezioni nelle immagini generate dall’algoritmo, ai dataset come collezione (atti politici) e allo status di opera letteraria dei dataset (atti creativi) [18].

Considerare i dataset come atti creativi ci permettere di valutare eticamente il modo in cui i dati vengono raccolti, categorizzati e i fini per cui vengono utilizzati, ma non solo ci permette di vedere come queste immagini «represents a shift from image to infrastructure, where the meaning or care […] or the context […] becomes part of an aggregate mass that will drive a broader system» (Crawford, 2021, p. 127). I dataset a cui attingono i modelli di diffusione esistevano prima di essi. Si tratta di archivi di immagini utilizzati per allenare le GANs e, ancora prima, ad insegnare alle macchine a vedere le cose, a capire il mondo visivo. Questo solleva, naturalmente, un problema circa la paternità delle immagini collezionate in questi immensi archivi, e in particolare la prestazione del consenso al loro utilizzo per generare nuove immagini (immagini derivate). In una recente causa promossa da tre artisti contro Stability AI, Midjourney e la Online Art Gallery e Community DeviantArt veniva contestato dagli avvocati difensori che «AI art models do not store images at all, but rather mathematical representations of patterns collected from these images. The software […] creates pictures from scratch based on these mathematical representations» (Vincent, 2023). Quello che interessa non è tanto la (dubbia) legittimità del modo in cui sono state raccolte le immagini, ma il fatto che venga messa in discussione l’essenza stessa dell’immagine: immagine come rappresentazione matematica di pattern.

Anna Ridler, "Mosaic Virus" (2018) immagine in movimento a schermo singolo che mostra una griglia di tulipani in fiore in continua evoluzione. Screenshot del video di Anna Ridler

CONTENT

Louis Marin nel suo contributo al libro Teorie dell’immagine dal titolo L’essere dell’immagine e la sua efficacia, definisce l’immagine dalla prospettiva del suo potere, l’immagine ha come forza la presentificazione dell’assente [19].
Che cosa rappresentano le immagini derivate dalla elaborazione dei dataset? Se proviamo a mettere insieme le prospettive delineate nella parte dedicata allo user e il funzionamento del servizio, possiamo dire che ogni immagine è una infografica o mappa sul dataset alla base. Ogni immagine generata ci racconta qualcosa dell’archivio, dal momento che la modalità operativa dell’algoritmo è quella di ripetere o validare pattern consistenti [20]. Le differenze nelle immagini, la presenza di accessori diversi o l’incapacità di rappresentare la forma di una mano ci dicono che un pattern è rappresentato più debolmente nei dataset. Anna Ridler nella presentazione del suo lavoro Mosaic Virus, ha sottolineato come siano importanti gli errori, le imperfezioni nelle immagini generate in quanto raccontano del processo dietro alla loro creazione e tengono la questione aperta: «as soon as something becomes too smooth it stops being noticeable and if this happen people stop questioning or challenging its» (Ridler, 2023) [21]. Come l’inquadratura di una fotografia ci offre una prospettiva specifica sul mondo, così un dataset ci offre l’inquadratura di uno specifico contesto culturale, politico, sociale ed economico (bias compresi) [22]. Hito Steyler nel testo citato all’inizio applica al sistema di pattern recognition il concetto di apophenia che vede come il principale modello culturale della narrativa odierna [23]. Laddove le reti neurali «in order to ‘recognize’ anything, need first to be taught what to recognize», la causalità è sostituita da combinazioni improbabili di dati/informazioni e «has to be recognized— or invented—across a cacophony of spam, spin, fake, and gadget chatter» (Steyer, 2018). Questa che Steyler definisce una manipolazione di dati porta a confondere i diversi modelli di riconoscimento (facciale, comportamentale etc.) e a creare “categories of political recognition”. L’attitudine dell’apofenia a riconoscere schemi o connessioni senza una significativa correlazione logica, è così «a misextraction, an act of failing interpellation and recognition that can have social consequences» (Steyer, 2018).

In un recente contributo alla rivista JAR dal titolo TroublingGAN la ricercatrice Lenka Hámošová pone l’accento sull’importanza di considerare le reti neurali come ‘a instrument of knowledge‘ per guardare diversamente alle immagini in un momento storico in cui stiamo divenendo insensibili alle informazioni visive contenute nelle immagini. Hámošová fa riferimento al testo The Nooscope Manifested (2020) di Vladan Joler e Matteo Pasquinelli, nel quale l’intelligenza artificiale e il machine learning sono considerati come una «(noos) knowledge (skopein) to examine, look» (Joler e Pasquinelli 2020), costituiti dalla triade dell’osservazione oggetto-strumento-rappresentazione corrispondente a dataset-algoritmo-modello (statistico). Quello che traspare è che in questa nuova inquadratura, il modello di veduta ci comprende. L’approccio fin qui analizzato si può considerare in parte in antitesi con le tendenze, sollecitate dagli stessi software di intelligenza artificiale, di interpretazioni magiche dello strumento [24]

In questo modo, infatti, si distoglie l’attenzione dall’importanza che hanno oggi i dati nell’infrastruttura digitale intrecciata con il nostro mondo sociale (e non). Le condizioni d’uso, Terms of Use, possono essere così intese come un momento di contatto tra il mondo sociale e le strutture che sottendono le strategie di potere incorporate nelle tecnologie. Date le lacune legislative esistenti, lo spazio dell’intelligenza artificiale sembra paragonabile a quelle che Esterling chiama “Free Zones”, dove si applicano solo le eccezioni alla regola. L’utente, una posizione nel sistema (del Servizio), senza possibilità di negoziare la propria posizione assume le proprietà di una categoria e con essa una specifica funzione. Viene quindi da chiedersi quale sia lo scopo di questa categoria per il fornitore del Servizio (OpenAI) e quale sia la “driving agency” dell’utente. 

Considerata la forte crescita che il fenomeno ha avuto dopo il lancio di OpenAI e la gratuità del servizio, una possibile interpretazione potrebbe essere ravvisata nella sua capacità di risonanza mediatica (cd. effetto wow) a vantaggio del mercato e della strategia del servizio. Dissezionate, processualizzate o raccontate in forma fiabesca le posizioni non più così oggettive acquisiscono oggi una rilevanza primaria nella visualizzazione delle questioni geopolitiche sottese al complesso sistema in cui viviamo. 

Note

[1] In particolare, l’oggetto di interesse è il quadro giuridico relativo alle clausole contrattuali generali emerse con l’industrializzazione e la produzione e distribuzione di massa. Le prime ricerche giuridiche sulla proliferazione di clausole contrattuali uniformi e sulla conseguente standardizzazione dei rapporti giuridici sono iniziate all’inizio del XX secolo e hanno trovato una prima esplicita regolamentazione giuridica in Europa solo nel 1976 (nella legge tedesca AGB). La questione della problematica regolamentazione del cyberspazio è stata affrontata in dettaglio da Lawrence Lessing nel suo libro Code and Other Laws of Cyberspace (1999), un estratto del quale si trova in questo articolo link. [Consultato il 20 gennaio 2023]. Sulla questione e sul ruolo del diritto, in particolare nel contesto delle “free zones” (zone franche di eccezioni legislative e alle norme ISO), si è espressa ampiamente Easterling, di cui si riporta un estratto: «Some of the most radical changes to the globalizing world are being written, not in the language of law and diplomacy, but in these spatial, infrastructural technologies» (Easterling, 2014,p.19).
[2] Le forme attive sono le attività non dichiarate nello spazio infrastrutturale che determinano l’organizzazione e la circolazione di oggetti e contenuti. Esterling si riferisce alle forme attive come a marcatori di disposizioni che ci dicono come è organizzato lo spazio infrastrutturale. Distingue le forme oggetto dalle forme attive: le prime sono connotate da contorni, forme geometriche, volumi e «knowing that», mentre le seconde dall’organizzazione/disposizione di questi oggetti e dal «knowing how» (Easterling, 2014, pp.121-127). L’autrice porta come esempio «the pretty landscape versus the fluid dynamics of the river», quest’ultima costituita dalle azioni immanenti (azione nella forma) che danno forma al fiume (Easterling, 2014, p. 29). Tra le forme attive, l’autrice individua, ad esempio, le funzioni di un moltiplicatore o di un interruttore/remoto (che eseguono determinate richieste nel sistema operativo e sono quindi performative), ma anche storie, dichiarate o non dichiarate, al di fuori della dichiarazione “ufficiale”.
[3] «Con questa parola si definisce I’identità generale delle persone quando si trovano connesse sulla rete di Internet» (Ippolita, 2017,p.267).
[4] «la ragion d’essere della funzione ‘utente’ è essere al servizio dei proprietari del servizio […] è l’economia della tecnologia del dominio che incontra la legge di domanda e offerta […] non è previsto che l’utente interagisca con il servizio, se non entro limiti ben definiti» (Ippolita, 2017, pp.267-268).
[5] «Il fatto che una soggettività venga interpretata e ricondotta a quella di semplice utente (ossia che venga spogliata della sua complessità) […] è la stilizzazione della vita privata dell’epoca moderna e ne incarna tutti i valori, a cominciare da quello della individualità, ossia della propria esistenza atomizzata.», (Ippolita, 2017, p.268).
[6] «Various types of planetary-scale computation […] form an accidental megastructure called The Stack that is not only a kind of planetary-scale computing system; it is also a new architecture for how we divide up the world into sovereign spaces. More specifically, this model is informed by the multilayered structure of software protocol stacks in which network technologies operate within a modular and interdependent vertical order» (Bratton, 2016).
[7] «Any animal, vegetable or mineral that can initiate chains of interaction up and down the layers of the global stack is a kind of user. In this sense, only a small minority of Alphabet’s users are individual homo sapiens. They are also sensors and algorithms in dizzying varieties, and their chatter and discourse are not secondary» (Vickers, McDowell, 2020, p.96).
[8] «[User] position at the top of The Stack, where driving agency is situated momentarily, is slippery, fragile, and always enmeshed in its own redefinition, an uncertainty that underwrites the formation of subjectivity in general, always a manifest image cobbled in relation to available technologies of self-reflection, from cave walls at Lascaux to Quantified Self Apps» (Bratton, 2016).
[9] «The User of this layer is not the universal persona [..] but as a model that is not given in advance and must be construed by interfaces and constructed for platforms» (Bratton, 2016).
[10] Secondo Esterling, l’infrastruttura, come una palla su un piano inclinato, è dotata di disposizioni. Queste disposizioni sono immanenti e denotano una tendenza, un’azione, una facoltà o una proprietà sia nelle entità che negli oggetti; sono latenti ed esistono anche in assenza di un evento. Esistono nelle relazioni tra le componenti dell’infrastruttura e raccontano della sua organizzazione, delle sue variabili nel tempo. (Easterling, 2014).
[11] In generale, un prompt viene utilizzato per avviare o guidare un processo, che si tratti dell’interazione con l’utente nella programmazione o dell’immissione di istruzioni a un modello di intelligenza artificiale nella generazione di immagini. Etimologicamente, prompt deriva dal latino prōmptus (‘visibile, evidente’). Come sostantivo, prompt (plurale prompt) è in informatica «a sequence of characters that is displayed to indicate that a computer is ready to receive input»‘; nell’apprendimento automatico, è un «textual input given to a large language model or image model in order to have it generate a desired output». Si può anche distinguere ilprompt engineering, ovvero il processo di costruzione e ottimizzazione di domande o istruzioni che consentono ai modelli generativi di AI di ottenere risposte specifiche e utili.
[12] I sistemi di apprendimento automatico utilizzano una forma di modello di elaborazione del linguaggio naturale (NLP) che converte i linguaggi umani in embeddings, ossia rappresentazioni vettoriali di singole parole. Questo processo consente alla macchina di comprendere le istruzioni testuali dell’utente. Il modello NLP utilizzato dal sistema DALL-E è il Generative Pre-trained Transformer (GPT), che è stato originariamente addestrato utilizzando dati non etichettati per apprendere modelli e relazioni generali.
[13] «First steps of creating a computer vision system to scrape thousands—or even millions—of images from the internet, create and order them into a series of classifications, and use this as a foundation for how the system will perceive observable reality. These vast collections are called training datasets‘ [..] ‘Two distinct types of algorithms then come into play: learners and classifiers. The learner is the algorithm that is trained on these labeled data examples; it then informs the classifier how best to analyze the relation between the new inputs and the desired target output (or prediction)» (Crawford, 2021, pp.130-131).
[14] È un metodo di apprendimento della rappresentazione delle immagini a partire dal linguaggio naturale.
[15] Si tratta di un rumore gaussiano con una funzione di distribuzione di probabilità ben definita, che facilita le soluzioni analitiche e i calcoli in vari algoritmi.
[16] «Gli algoritmi probabilistici [sono] ricette logiche calcolano la probabilità di eventi prefissati […] capaci di prevedere la probabilità dell’insorgenza di un evento [consistono in] passaggi logici [compresa] l’elaborazione/trasformazione dei dati, [che] non derivano da decisioni neutrali, [ma sono definiti da] specifiche regole morali che [governano] il loro utilizzo» (Ippolita, 2017, pp. 17-18).
[17] L’opera è stata presentata nella mostra The Abstraction of Nature presso l’Aksioma Project Space dal 19 febbraio 2020 al 18 marzo 2020.
[18] «Technology industry is moving forward and a lot of algorithms that are being used creatively have been produced by large corporation. The way that they are driving is towards realism and all the research in computer vision is eating towards having hyper realistic deep fake images and trying to minimize this mistakes. This mistakes/errors draw attention to the process and with that attention what is wrong with the process as soon as something becomes too smooth it stops being noticeable and if this happen people stop questioning or challenging it. Equally important to algorithm are training sets or images that are given to them as input or knowledge and they are central to whatever the algorithm will give» (Ridler, 2022).
[19] «È il modo in cui l’immagine prende voce con il linguaggio, il discorso, la parola. L’immagine è una categoria. Alla domanda dell’essere dell’immagine si risponde rinviando l’immagine all’ente. Interrogando le sue virtù, le sue forze latetti o manifeste, insomma la sua efficacia. Per rispondere alla domanda della conoscenza di una forza ritroviamo l’immagine come rappresentazione, ossia presentare nuovamente (nel tempo) o al posto di (nello spazio). ra-= sostituire, ma di un’intensità: rappresentare qualcuno, farlo comparire personalmente riguarda un titolo di diritto. Così i sepolcri-monumenti che rappresentano il fondatore ‘fanno quel corpo scomparso‘ fondandolo nella sua legittimità sovrana. l’immagine mostra i morti ai vivi, li fa comparire di persona davanti ai vivi. forza dell’immagine è forza di presentificazione dell’assente e energia di auto-presentazione» (Marin, 2008).
[20] «The discriminator is looking to recognize images in the data set that means it’s figuring out the patterns in the data that appear most consistently. AI tool is assembling information from these categories, finding patterns that appear in them and recreating pixels that fits this pattern» (Salvaggio, 2023).
[21] «These imperfection, traces of process are interesting because there will be a finite time where these traces still exist. technology industry is moving forward and a lot of algorithms that are being used creatively have been produced by large corporation. The way that they are driving is towards realism and all the research in computer vision is eating towards having hyper realistic deep fake images and trying to minimize this mistakes» (Ridler, 2022).
[22] «Who decided these categories? (Where did this information come from? who put it together? what criteria did they use to put these categories together?) How do these categories change what we see? (does it change what we see or down see?) What is in the dataset? and what’s not? How was these data collected? (did the people agree that their photographs could be used?) Are the outputs representatives of the things that we want to see in the world?» (Salvaggio, 2023).
[23] «But far from being a neutral process, the delineation and application of patterns is in itself a highly political issue, even if hidden behind a technical terminology» (Apprich, 2018).
[24] Il software utilizza spesso termini come “dreamStudio”, “DreamShaper”, “write your tale”, etc.

Bibliografia

Apprich C., Introduction in: Cramer, F., et al., Pattern discrimination, University of Minnesota Press, Minneapolis, 2018.
Bratton B. H., The stack: On Software and Sovereignty (Software Studies), The MIT Press, Massachusetts, 2016.
Crawford K., Atlas of AI, Yale University Press, New Haven, 2021.
Easterling K.Extrastatecraft: The power of infrastructure space, Verso, Londra, 2014.
Hámošová L., TroublingGAN, 2021, [Consultato il 3 maggio 2024]. Disponibile al LINK
Ippolita, Tecnologie Del Dominio: Lessico Minimo Di Autodifesa Digitale, Meltemi, Milano, 2017.
Marin L., L’essere dell’immagine e la sua efficacia in: Pinotti A., Somaini A. (a cura di), Teorie dell’immagine. Il dibattito contemporaneo. Raffaello Cortina, Milano, 2008.
Pasquinelli M., Joler, V., The Nooscope manifested: AI as instrument of knowledge extractivism, in «AI & Soc» Volume 36, pp. 1263–1280, 2021. [Consultato il 3 maggio 2024]. Disponibile al LINK
Ridler A., The Abstraction of Nature, Aksioma canale Youtube, 2020. [Consultato il 3 maggio 2024]. Disponibile al LINK
Salvaggio E., AI Images Class 7: Generative Adversarial Network Fever, in «Youtube» 2023. [Consultato il 3 maggio 2024]. Disponibile  al LINK
Salvaggio E., AI Images, Class 1: Love in a Time of Cholera, in «Youtube» 2023. [Consultato il 3 maggio 2024]. Disponibile  al LINK
Steyer H., A Sea of Data: Pattern Recognition and Corporate Animism (Forked Version) in: Cramer F. et al., Pattern discrimination, University of Minnesota Press, Minneapolis, 2018.
Valyaeva A., AI Has Already Created As Many Images As Photographers Have Taken in 150 Years. Statistics for 2023, in «Everypixel Journal», 2023. [Consultato il 3 maggio 2024]. Disponibile al LINK
Vickers B., McDowell K., Atlas of Anomalous AI. Lawson Publishing Ltd., Cambridge, 2020.
Vincent J., AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit, in «The Verge», 2023 [Consultato il 3 maggio 2024]. Disponibile al LINK
Wikipedia contributors, OpenAI, in «Wikipedia, The Free Encyclopedia», 2024. [Consultato il 3 maggio 2024]. Disponibile al LINK

Lucia Bergamaschi (1987) studia arti visive presso l’Università FaVU di Brno. Le sue precedenti formazioni in campo giuridico (MA Università di Bologna, 2012) e artistico (MA Università IUAV di Venezia, 2019), le permettono di esplorare le intersezioni tra arte e diritto. La sua ricerca artistica si interessa alle intersezioni tra modelli umani e non umani o vegetali, alla commistione di ambienti naturali e artificiali, nonché alle disposizioni normative come strumenti di lettura e rappresentazione di questi cambiamenti.