Mentre ci preoccupiamo delle due principali guerre attuali, Palestina e Ucraina; mentre ci preoccupiamo per l’insicurezza urbana che viviamo nei centri abitati medio grandi; mentre ci preoccupiamo del ritorno del “fascismo” di destra; mentre pensiamo che “eppur qualcosa comincia a muoversi…” con la protesta in tutta Europa dell’agroalimentare, pensando che da questi fatti derivi il nostro viver bene o male, ciò che realmente avrà un impatto serio sulle nostre vite non lo vediamo, se non con un mix di divertimento e curiosità: l’Intelligenza Artificiale Generativa.
Solo qualche mese fa il Mainstream informativo discuteva delle opportunità che questa nuova tecnologia poteva offrirgli. Oggi questi discorsi sono già vecchi. Il Potere, impersonato qui in chi detiene questa tecnologia, Open AI ma ce ne sono altre, ha una sua tabella di marcia indipendente da tutti noi, segue solo l’ideologia della Tecnica, sintetizzata molto bene da questa dichiarazione di qualche anno fa di Sergey Brin di Google-Alphabet:
Non ci interessa fare prodotti, ci interessa sfondare i limiti dell’inimmaginabile”.
Due brevi notizie, in sezioni secondarie, per appassionati, ci dicono che uno: ora è in fase test un nuovo programma – Sora – in grado di rendere “visibile” le parole, cioè a partire da un testo è in grado di creare un video di 60 secondi autonomamente. E sono video anche ben fatti, praticamente indistinguibili da quelli realizzati da operatori umani. Due: la versione 4 di ChatGPT è in grado di “comportarsi” da persona umana, avendo superato il test di Turing.
Il Test di Turing è un test di intelligenza artificiale per verificare se, attraverso una conversazione via chat, un computer può convincere un umano di essere umano.
Siamo solo agli albori di questa tecnologia, riusciamo a immaginare cosa potrebbe essere tra 5 anni, e che cosa può significare per la vita di tutti noi?
La Commissione Europea sta iniziando a regolamentare questo settore del tutto nuovo, ma essendo il braccio esecutore degli interessi industriali e finanziari, come può regolamentare efficacemente l’ideologia della Tecnica che non ha etica né obbiettivi se non quello di “sfondare i limiti dell’inimmaginabile”?
Mentre noi siamo sempre focalizzati su cose reali e vicine (la guerra, la crisi, l’insicurezza etc..) la filosofia parla già di “obsolescenza umana” come di una condizione già in essere.
Fonte AGI, 26 febbraio 2024
L’ultima versione di ChatGPT, ChatGPT-4, ha superato un rigoroso test di Turing, dimostrando alcune capacità pressoché indistinguibili da quelle delle controparti umane. Un team guidato da Matthew Jackson, professore di economia presso la Stanford School of Humanities and Sciences, USA, ha analizzato la personalità e il comportamento dell’ intelligenza artificiale di ChatGPT utilizzando gli strumenti della psicologia e dell’economia comportamentale, portando a questo straordinario risultato riportato in un saggio pubblicato su “PNAS”. “Sempre più spesso, i bot verranno inseriti in ruoli in cui devono prendere decisioni, e il tipo di caratteristiche che avranno diventeranno più importanti”, ha affermato Jackson, che è anche senior fellow presso lo Stanford Institute for Economic Policy Research.
Nello studio, il gruppo di ricerca ha sottoposto le versioni 3 e 4 di ChatGPT a un test della personalità ampiamente utilizzato e ha anche chiesto ai chatbot di descrivere le loro mosse in una suite di giochi comportamentali in grado di prevedere comportamenti economici ed etici nel mondo reale. I giochi includevano esercizi stabiliti in cui i giocatori decidevano ad esempio come investire del denaro. Le risposte dei bot sono state confrontate con quelle di oltre 100.000 persone provenienti da 50 paesi.
La ricerca segna una delle prime volte in cui una fonte di intelligenza artificiale ha superato un rigoroso test di Turing. Un test di Turing, che prende il nome dal pioniere britannico dell’informatica Alan Turing, può consistere in un qualsiasi compito assegnato a una macchina per valutare se si comporta come un essere umano. Se la macchina sembra umana, supera il test. I ricercatori hanno valutato i tratti della personalità dei bot utilizzando il test della personalità chiamato OCEAN Big-5, che valuta gli intervistati in base a cinque tratti fondamentali che modellano il comportamento. Nello studio, la versione 4 di ChatGPT è risultata entro intervalli normali per i cinque tratti, ma con una “capacità di piacere” piuttosto bassa.
Il bot ha sì superato il test di Turing, insomma, ma “con scarse capacità di farsi degli amici” come riportato in una presentazione di Standford. La versione 4 si trova comunque una spanna sopra la versione 3. La versione precedente, infatti, con la quale molti utenti di Internet potrebbero aver interagito gratuitamente, è risultata infatti anche meno “gradevole”. Per quel che riguarda i test dei giochi, i ricercatori hanno confrontato una mossa umana scelta casualmente con una tra le 30 sessioni giocate con ciascun dei bot. Nella maggior parte dei giochi, le mosse della Versione 4 avevano più probabilità di essere “umane” – vale a dire eguali a quelle delle controparti umane – che non. La versione 3 invece non ha superato questo test di Turing. La ricerca ha rilevato che le scelte dei chatbot nei giochi sono spesso ottimizzate per il massimo beneficio sia per il bot che per la sua controparte umana. Le loro strategie erano coerenti con l’altruismo, l’equità, l’empatia e la reciprocità, portando i ricercatori a suggerire che i chatbot potrebbero funzionare bene come agenti del servizio clienti e mediatori di conflitti.