Starà ai nostri posteri decidere se inserirla nei libri di storia, tra una decina di anni. Guardata dalla prospettiva contemporanea, la data del lancio di ChatGPT ha tutte le caratteristiche per essere considerata una ricorrenza da ricordare. Quello che sulla carta può infatti apparire come un semplice servizio IT basato sull’intelligenza artificiale, nel mondo ha portato a una vera e propria rivoluzione.
Con ChatGPT, il 30 novembre 2022 questa tecnologia è diventata accessibile a tutti e anche particolarmente attraente e accattivante. Con i pro e i contro con cui stiamo tutti facendo i conti, si può parlare di democratizzazione dell’AI. Il suo diffondersi rapido, capillare e imprevedibile, ha innescato cambiamenti sociali, culturali, economici e ambientali indelebili e, a tratti, anche criptici da interpretare “a caldo”. Non sapremo come li analizzeranno a mente fredda tra decenni, forse, ma possiamo monitorarli con massima attenzione ora, dopo aver approfondito la conoscenza di questo game-changer che parla la nostra lingua.
A prima vista, ChatGPT, come il nome stesso vuole suggerire, è un chatbot. A renderlo speciale è il modo con cui fa leva sull’AI e utilizza l’elaborazione del linguaggio naturale per creare un dialogo simile a quello umano. Come molti hanno sperimentato di persona, sfiora e supera livelli tali da diventare irriconoscibile.
Sfruttando un modello linguistico di grandi dimensioni (Large Language Model – LLM) risponde alle domande che gli si pone con disinvoltura e compone in breve tempo contenuti scritti di differenti tipologie, spaziando tra articoli, post per social media, saggi, codice di programmazione e semplici e-mail. Gli si può domandare di produrre anche immagini o video, contando in una sua continua e rapida evoluzione a livello sia di qualità che di rapidità di risposta.
Nel susseguirsi di annunci e aggiornamenti, infatti, fino agli ultimi mesi del 2023 si è assistito a regolari “nuove versioni”. Già a marzo 2024, con GPT-4, per esempio, questa chatbot AI sfoggiava una maggiore accuratezza e, soprattutto, la sorprendente capacità di accettare come input anche contenuti multimediali come immagini e video, oltre a quella di saper acquisire lo stile di scrittura degli utenti. L’altro upgrade molto gradito di questa versione, l’aumento delle parole accettate input, fino a 25.000. Per chiudere l’anno in bellezza, a novembre 2023 è arrivato l’annuncio di una nuova ulteriore versione del modello che alimenta ChatGPT. Questa implementazione, la cui messa e terra sul mercato aprirà il 2024, gli permetterà di attingere a informazioni aggiornate fino all’aprile 2023, di accettare prompt fino a circa 300 pagine di un libro e di cogliere meglio i dettagli nascosti tra le righe di un modi di dire umani finora sempre trascurati
Mentre evolve, ChatGPT mantiene una facilità di accesso e di utilizzo fondamentali per quel suo essere “per tutti” che lo ha reso subito un successo. Per accedervi, infatti, serve creare un account OpenAI e si può subito avviare la conversazione, dando iniziando un botta e risposta naturale e fluido. Per evitare rallentamenti, meglio non usarlo nelle ore di massimo traffico, oppure passare al servizio a pagamento ChatGPT Plus. Di base ChatGPT non lo è e, molto probabilmente, mai lo diventerà. Come ingolosire, altrimenti, gli utenti?
Preso atto che si tratta di una chat, l’acronimo GPT sta per “Generative Pre-trained Transformer” (trasformatore generativo pre addestrato) e si riferisce al modo in cui vengono elaborate le richieste e formulate le risposte. Al centro c’è infatti un modello linguistico di grandi dimensioni (LLM) basato sul deep learning che permette di elaborare e comprendere il linguaggio naturale. Come?
Attraverso reti neurali artificiali ispirate al funzionamento del cervello umano, che “consultano” enormi quantità di dati diversi a disposizione (fonti e parole tratti da vari siti web, articoli e altro materiale). Solitamente si inizia con dati generici, per poi passare a quelli maggiormente personalizzati, relativi a un preciso contesto o funzionali rispetto a un compito specifico. ChatGPT, nello specifico, è stato addestrato sia con testi disponibili online, per imparare a capire e usare il linguaggio umano, sia con trascrizioni di dialoghi, per apprendere come “fare conversazione” in modo credibile e piacevole, cogliendo il meglio possibile le sfumature del linguaggio, le regole della grammatica e gli elementi di contesto, oltre ad alcune nozioni di cultura generale. Da questo punto di vista ci sono ancora ampi spazi di miglioramento, ma si ha già un buon punto di partenza, soprattutto rispetto alla precedente offerta.
Per ottenere risposte sempre più soddisfacenti, si è optato per l’apprendimento rinforzato, un metodo che utilizza il feedback umano e i modelli di ricompensa per classificare le risposte migliori, indirizzando il modello verso una qualità di output sempre più in linea con le aspettative dell’utente. Utilizzando ChatGPT anche nella sua versione gratuita, si nota bene che tutti hanno la possibilità di contribuire a questo paradigma formativo. Per ogni risposta ricevuta, infatti, si può selezionare una delle icone “pollice su” e “pollice giù” per migliorare e perfezionare i dialoghi futuri.
Noto il meccanismo di ciò che ha sorpreso il mondo, svelandogli di colpo la potenza dell’intelligenza artificiale, già ben nota in varie “nicchie”, è lecito chiedersi chi ci sta dietro. A realizzare ChatGPT è stata una società di ricerca sull’AI oggi considerata alla stregua di una big tech: OpenAI. Esiste dal 2015 e, prima di lanciare questa soluzione disruptive, aveva dato qualche indizio al mercato, dando vita a Dall-E, un generatore di testo AI per l’arte.
Nel gruppo di imprenditori e ricercatori che ha fondato OpenAI spicca il nome di Elon Musk, poi costretto a lasciarla perché (così viene ufficialmente spiegato) in conflitto con le sue attività legate Tesla e all’integrazione del machine learning a bordo delle sue auto intelligenti.
L’altro nome noto, associato a Open AI è quello di Sam Altman. Classe 1985, statunitense, capace di smontare e rimontare un computer a 8 anni senza danneggiarlo, da adolescente parte per studiare scienze informatiche in una università della California, la abbandona prima della laurea e inizia a sfornare società. Dopo un’esperienza da presidente, nell’incubatore di startup Y Combinator, Altman arriva a lavorare in OpenAI, come CEO. Questa realtà, in teoria, prima di lui, doveva essere un laboratorio di ricerca AI per sviluppare tecnologie atte a migliorare la vita degli esseri umani. Ognuno può decidere se lo è rimasto, fatto sta che è con Altman che nasce ChatGPT e spopola.
Prima di vedere come, dove e perché spopola, un piccolo grande gossip su questo personaggio, recente e significativo. Anche se durato pochi giorni, infatti, è un episodio che ha smascherato agli occhi anche dei meno attenti certi equilibri e dinamiche noti solo a chi seguiva i retroscena. All’improvviso, a metà novembre, il CDA di OpenAI ha rimosso Altman dall’incarico, spiegando il gesto con un vago “venir meno della fiducia nei confronti delle sue capacità alla guida di Open AI”. Approdato a Microsoft, uno dei principali investitori della stessa società, per proseguire lì la sua ricerca sull’AI, Altman dopo pochi giorni è stato reintegrato, a seguito delle proteste di finanziatori e dipendenti di OpenAI (almeno 700 quelli in rivolta). Un blitz che ha creato una bufera sul mercato, ma soprattutto che ha scatenato una miriade di ipotesi sui retroscena del tutto affascinanti e, forse, futuribili. Staremo a vedere. E staremo a vedere anche se è vero che la prossima impresa che ha in mente Altman riguarda sul serio l’intelligenza artificiale generale. Nonostante l’assonanza con la generativa alla base di ChatGPT, con questa tipologia di AI si cambia “ordine di grandezza” di impatto e di rivoluzione. Voler realizzare l’intelligenza definita con questo termine, infatti, significa voler raggiungere con la tecnologia la capacità di svolgere qualunque tipo di ragionamento e di operazione intellettuale, proprio come un essere umano. Chi sospetta che Altman ci stia lavorando, parla di un certo progetto Q* (Q-Star), citato anche come scoop da Reuters, ma al momento non si hanno altre prove. Resta un sospetto che fa tremare le gambe di chi ne percepisce la portata del potenziale impatto.
Lanciato “urbis et orbis” oltre un anno fa, ChatGPT nelle mani del cittadino del mondo ha svelato la sua capacità di rispondere a domande e richieste di vario tipo. Non “sul pezzo” perché aggiornato con dati on line fino a una certa data (che col tempo sta slittando), ma si è mostrato da subito versatile ed estremamente semplice e veloce da utilizzare. E allora ecco che molti, per curiosità o per comodità, hanno iniziato a sfruttarlo come supporto per redigere e-mail, scrivere post sui social media, riassumere articoli, podcast o presentazioni troppo lunghe, ma anche per giocare e vincere, oppure per cercare lavoro stendendo curricula e lettere di presentazione più agilmente.
Al di là degli usi più vari e creativi che molti singoli cittadini hanno sperimentato, gli stessi hanno potuto interagire con questo strumento anche negli ancora rari e timidi casi in cui a sperimentarlo è stata la Pubblica Amministrazione. Comprensibile che sia in atto un avvicinamento prudente e guardingo, anche le imprese stanno facendo similmente. Esistono però alcuni utilizzi che si possono iniziare a sperimentare in maniera soft, ogni tanto, sempre con un controllo umano sull’output, per capire se ChatGPT possa essere in qualche modo considerato un alleato degno di fiducia. Può per esempio aiutare a stendere un canovaccio per le risposte a un’intervista o i testi descrittivi da pubblicare su social e siti web vetrina. Può regalare spunti per slogan, nomi di eventi e di iniziative, o trovare il modo per comunicare ai cittadini un nuovo servizio con tono semplice. Magari anche traducendo velocemente il testo in varie lingue, per raggiungere la moltitudine di utenti non di origine italiana ma che ha il diritto di essere informata.
Molto probabilmente non mancano gli sperimentatori curiosi e coscienziosi nella PA. Non fanno notizia, ma ce ne sono. Ad arrivare agli occhi di tutti sono i progetti più organici e di portata, per esempio quelli nazionali. L’Estonia sembra stia sperimentando ChatGPT per migliorare la qualità delle trascrizioni ufficiali, il Giappone per filtrare le informazioni delle sedute parlamentari e l’India per sondare l’opinione pubblica. Anche su scala locale, spuntano iniziative da cui prendere spunto. Si può tornare in Giappone, a Yokosuka, dove i funzionari pubblici vogliono usare ChatGPT per automatizzare alcune attività amministrative ripetitive e a basso valore aggiunto e avere più tempo per concentrarsi su compiti che richiedono un intervento umano. In Portogallo ha fatto invece notizia l’idea del Ministero della Giustizia che, con il progetto “Justice-Practical-Guide”, permette ai cittadini di dialogare con lui e ottenere dati e documenti relativi al proprio rapporto con gli enti pubblici.
In quasi tutti questi casi, dietro le quinte esistono spesso accordi sulla gestione dei dati della PA che devono restare confidenziali. Di volta in volta cambiano il contesto normativo, i rischi e il concetto del diritto alla privacy che si è tenuti a garantire come amministratori pubblici, ma resta un punto essenziale quando si ha a che fare con LLM e ChatGPT. Questi stessi accordi che spesso delimitano con precisione i data set, riescono anche a sopperire a uno dei problemi più evidenti della versione gratuita: la scarsa trasparenza delle fonti. Se con la versione gratuita di ChatGPT, non si ha modo di capire da dove “peschi” le informazioni, con questi accordi di confidenzialità si può contare di avere un maggiore controllo. Ciò significa poter alzare le aspettative dal punto di vista della precisione e della esaustività delle risposte.
Per la PA è una mossa dovuta, come lo è anche per le aziende che condividono le preoccupazioni legate alla privacy e alla riservatezza e, quindi, la necessità di limitare il bacino di dati in cui un meccanismo “alla chatGPT” va a operare. Con lo stesso alert e simili accordi o formule di applicazione, che cadono sotto la categoria di AI privata, il mondo enterprise si approccia all’AI generativa e al giocattolo offertogli da Altman con apparente entusiasmo ma timida intraprendenza. La maggior parte dei responsabili IT, per lo meno in Italia, guarda a questa novità con curiosità e voglia di comprenderne i reali vantaggi, ben consapevole anche dei rischi che la accompagnano.
I settori che sembra stiano maggiormente sperimentando sono il marketing, l’entertainment e quello digitale, per sua intrinseca natura portato ad accogliere questo tipo di innovazioni.
Dal punto di vista di chi fa comunicazione, in effetti, uno strumento come ChatGPT appare utile per abbattere i tempi e aumentare la produttività. Può creare bozze di articoli per blog, riformulare contenuti esistenti per un mezzo diverso, identificare parole chiave per l’ottimizzazione dei motori di ricerca, formulare descrizioni di prodotti e ricercare i mercati più adatti per posizionarli, per esempio.
Nel mondo dello spettacolo, ha fatto notizia lo sciopero di 147 giorni degli sceneggiatori del sindacato Writers Guild of America, che ne rappresenta 11.500, contro le big hollywoodiane che accarezzavano l’idea di chiedere a ChatGPT di scrivere al loro posto. Tutto si è risolto con un accordo a fine autunno 2023, ma il caso ha messo il mondo davanti ai possibili utilizzi di ChatGPT nel mondo della creatività. Nel cinema come anche nell’arte, nella musica e nella letteratura: il copione è simile ed è già scritto. ChatGPT, oltre a provare a sostituire gli artisti nel loro creare, può anche essere per loro uno spunto costruttivo e amplificare la loro immagine e la loro fama. Presa così, può non essere male, e allora ecco le possibilità di doppiare i propri contenuti podcast in tante lingue, pur non conoscendole, e di veder ricreata la propria immagine strumentalmente ringiovanita o invecchiata, con tanto di diritti pagati e nuovi ruoli prima inaccessibili da aggiudicarsi.
Tutto un altro film, sono le applicazioni di ChatGPT nel campo dell’informatica e della security aziendale. In questi contesti, si trasforma in un aiutante per la scrittura di codice, sempre da verificare, oppure per la stesura di policy, procedura spesso tremendamente time consuming e ad alto rischio di errori umani. Anche gli altri settori stanno sperimentando con diverso grado di confidenza e coraggio, a seconda del contesto e delle regolamentazioni vigenti. Si tratta di percorsi in continua evoluzione e spesso ricchi di svolte e rallentamenti, come di accelerazioni, dettati anche dalle nuove versioni che OpenAI propone, sempre cercando di suscitare l’effetto “wow” ma anche di rispondere alle esigenze di CIO e CTO a cui questo non basta.
Nonostante i rischi immaginabili legati a uno strumento come chatGPT (e che più avanti scopriremo in dettaglio), sono innegabili i vantaggi che porta con sé. Ecco i principali:
• Efficienza. Gestendo in semi o completa autonomia compiti di routine e ripetitivi, in modo che la forza lavoro sia libera di concentrarsi su responsabilità più complesse e strategiche
• Risparmio sui costi. Evitando l’acquisto di risorse e strumenti alternativi e spesso più onerosi e da formare
• Correzione errori umani e supporto al brainstorming. Velocizzando il processo di creazione di un testo, migliorandone anche linguaggio e originalità.
•Innovazione della formazione. Fornendo spiegazioni su argomenti più complessi, come un tutor virtuale a cui domandare h24 chiarimenti e consigli
• Reattività. Offrendo risposte pressoché istantanee, riducendo i tempi di attesa per gli utenti in cerca di assistenza. (Customer service)
• Supporto multilingue. Riuscendo a comunicare in più lingue e a fornire traduzioni, per raggiungere più agilmente un pubblico globale
• Utilizzo del linguaggio naturale. Comprendendolo e utilizzandolo di default, per abbattere ogni barriera di accessibilità
• Accessibilità digitale. Facilitando o rendondo di colpo possibile l’utilizzo di servizi e strumenti a persone con disabilità che non sempre hanno la possibilità di interagire con alcune tipologie di interfaccia e di linguaggi.
È rischioso affidare a del permanente inchiostro su carta una panoramica dei limiti di ChatGPT. In continua evoluzione e alla rincorsa del mercato, come ha dimostrato di saper essere, potrebbe migliorare da un giorno con l’altro, trasformando nel futuro prossimo in apparente volontà di immotivato allarmismo un desiderio di informare in modo oggettivo riguardo ad alcune criticità di questo chatbot speciale.
Ad oggi, per esempio, non mostra ancora una piena, completa e affidabile comprensione del linguaggio umano. Non si tratta dei singoli termini, ma di alcuni modi di dire e riferimenti, contesti e rimandi, che non è in grado di cogliere appieno. È addestrato a generare parole in base agli input, in modo statistico. I suoi testi sono e restano combinazioni di parole “probabilmente sensate”, per cui c’è ampio spazio per fraintesi. E motivate ragioni per non brillare per ironia e senso dell’umorismo. E poi ci sono le allucinazioni: questo termine si utilizza quando ChatGPT genera contenuti verosimili ma per niente affidabili. Soprattutto al suo esordio, si era scatenata una sorta di “caccia agli strafalcioni”. Col tempo, si è cominciato ad accettarle come “difetto di macchina”, affinando la diffidenza con cui è corretto trattare i suoi output, sempre da verificare con occhio e cervello umani. Il “copia e incolla” a occhi chiusi da ChatGPT, ancora non funziona.
Un’altra critica che si può muovere è relativa al tono non sempre naturale utilizzato, con frequenti ripetizioni e poca fluidità. Molto più grave per chi lo usa per creare contenuti, però, è l’assenza delle fonti da cui attinge per arricchire i propri testi di informazioni, dati o statistiche.
Passando ai limiti etici di una creazione come ChatGPT, si apre il vaso di Pandora, un vaso che mai si teme possa essere svuotato o interamente esplorato, ma ecco gli alert più noti e, al momento, più discussi. Molti ne temono l’utilizzo per imbrogliare, impersonare o diffondere disinformazione, grazie alle sue capacità simili a quelle umane. Gli esempi reali non mancano, a conferma della fondatezza delle preoccupazioni manifestate. Si pensi all’ambito scolastico e universitario, dove gli studenti possono usare ChatGPT per diversi “compiti”. Lo stesso vale per tutti i produttori di contenuti testuali e non, che possono sfruttarlo e crearne in pochi minuti, facendoli pagare come il prodotto di ore e ore di lavoro. Esistono strumenti che si vantano di poter identificare quanto prodotto con l’AI ma, al momento, non mostrano performance entusiasmanti. Data la sua capacità creativa, ChatGPT in mano ai criminali informatici è diventato un ottimo inventore di malware. Veloce e abile, ha aumentato la “produttività” di questa categoria e abbassato la soglia di entrata, permettendo anche ai meno esperti di confezionare inganni cyber altamente efficaci in pochi minuti e in molte lingue. Senza arrivare a parlare di attacchi di cybercrime, frequente e semplice anche l’uso di ChatGPT per impersonare una persona, simulando il suo stile di scrittura e di linguaggio, oppure la sua immagine, per mettere a segno truffe e inganni, plagi e crimini. Una parentesi doverosa va aperta e dedicata al fenomeno deepfake: la creazione e la diffusione di foto, video e audio che, partendo da contenuti reali, grazie all’AI, riescono a riproporre, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. Tutto ciò era possibile anche prima di ChatGPT, e altamente ingannevole, ma con questo strumento diventa ancora più facile e veloce crearne. Basta chiedere!
Se l’impatto di questo tipo di contenuti sulla società risulta evidente, o per lo meno facilmente immaginabile, meno lo è quello dei bias. Con questo termine si vogliono indicare i pregiudizi e gli stereotipi che in questo caso ChatGPT “assorbe” dai dati di training, come un bambino ingenuo, e che ripropone con altrettanta ingenuità e inconsapevolezza nei suoi output. Non solo: essendo stato creato e sviluppato in un contesto di “persone bianche e di sesso maschile”, risulta molto più prestante con questo tipo di figura umana che con altre. Questo aspetto riguarda soprattutto la parte di video e immagini: se gli si chiede la foto di una figura apicale al vertice di un’azienda, siamo quasi certi che non sarà di sesso femminile e non sarà né asiatica, né africana, né sudamericana.
Altri due temi scottanti per ChatGPT e i suoi creatori sono la privacy e la paura che possa sostituire le persone nei loro posti di lavoro. Quest’ultima è una preoccupazione che si associa a ogni innovazione tecnologica atta a ottimizzare i processi. In realtà esistono recenti studi che dimostrano come l’AI, generativa e non, possa aprire nuove opportunità di impiego, a patto che ci si aggiorni opportunamente. Quello della privacy resta un nodo critico: l’input di ChatGPT potrebbe potenzialmente contenere informazioni sensibili, il suo output potrebbe tracciare o profilare le persone raccogliendo informazioni da un prompt e associandole al numero di telefono e all’e-mail dell’utente, per poi conservarle memorizzate a tempo indeterminato. Non è infatti un caso che molte aziende e PA preferiscano optare su paradigmi di AI privata, con definiti dataset su cui allenare i modelli, protetti e controllati.
Il tema della privacy e, allargando lo sguardo, tutti quelli associati alla sicurezza e alla protezione dei dati, sono tra i protagonisti dell’AI Act appena sfornato dall’Unione Europea. Il 9 Dicembre 2023 è stato ufficialmente raggiunto un accordo politico tra la presidenza del Consiglio e i negoziatori del Parlamento europeo dopo più di due anni di gestazione e 36 ore di negoziazioni estenuanti, in presenza.
Nei prossimi mesi i tecnici lavoreranno al testo definitivo con tutti i dettagli, da mettere a disposizione del pubblico, e saranno mesi decisivi per alcune sottigliezze fondamentali su cui i politici sono rimasti vaghi. Qualcosa però lo hanno deciso. Hanno proibito per esempio l’uso di sistemi di categorizzazione biometrica basati su convinzioni politiche e religiose o sull’orientamento sessuale e la razza, il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni scolastiche come anche la classificazione sociale, il cosiddetto social scoring in uso in Cina. Molto si è discusso e ancora si discuterà del riconoscimento facciale in spazi aperti al pubblico e diritti umani, ma il capitolo che riguarda ChatGPT è quello dedicato all’AI generativa e ai modelli di base. Per ora, la creazione di OpenAI sarebbe l’unica da considerare “ad alto impatto” tra tutti i GPAI (sistemi di AI per uso generale) presenti sul mercato. Ciò significa che avrà un “trattamento speciale” a base di obblighi di trasparenza e rispetto di privacy e copyright.
A fare compagnia a ChatGPT in questa attenzionata categoria, potrebbe arrivare Gemini, la risposta di Google a OpenAI. La sua versione iper potente, Gemini Ultra, quella che promette di battere perfino il modello GPT-4, è prevista entro fine 2024 ma già adesso questo chatbot intelligente sgomita sul mercato. Il suo punto di forza sta nell’essere “nativamente multimodale: è stato pensato da subito per gestire contemporaneamente e nell’immediato testi, video, audio, non li raccorda in un secondo momento. Questa diversità di approccio gli regala elevate capacità di cogliere sfumature e interpretazioni dei linguaggi finora trascurate. Google immagina Gemini come il suo motore di ricerca universale del futuro, quello che fornirà la risposta che ci aspettiamo, esauriente e completa, e non più un elenco di link o video.
Un’altra opzione nasce da due ex di OpenAI e si chiama Claude. Dario e Daniela Amodei, due fratelli italo-americani di San Francisco, hanno fondato Anthropic e hanno creato questo chatbot, di recente aggiornato e ribattezzato Claude 2. Sarà disponibile nei prossimi mesi, si basa sempre su un LLM e promette di limitare al minimo gli output dannosi, offensivi o pericolosi, avendo ottimizzato tutti gli aspetti di sicurezza. È questo il tasto su cui Anthropic vuole battere sul mercato, mentre Ernie Bot ha tutto lo spazio concessogli dalla sua unicità di origine, per imperare su quello del Regno di Mezzo. Ideata e lanciata lo scorso agosto da Baidu, il Google in mandarino, questa risposta a ChatGPT è la prima app di AI domestica completamente disponibile in Cina, ma non all’estero. Inutile precisare che dentro i confini di questo impero, va usata, perché è la sola che assicura di “aderire ai valori fondamentali del socialismo”, evitando minacce alla sicurezza nazionale e contenuti violenti o di “odio etnico” ma promettendo di limitare “informazioni false e dannose”.
Tenere il passo di creazioni come ChatGPT è definitivamente impossibile. Proviamo però a ricapitolare gli ultimi aggiornamenti presentati, soprattutto per rendere l’idea di quanto frequenti sono diventati gli upgrade di prodotti e servizi tecnologici rispetto anche solo a qualche anno fa.
Nell’agosto 2023 ha esordito una versione enterprise di ChatGPT più veloce e con maggior spazio per i prompt, più ricca di opzioni ma, soprattutto, più “riservata”. Questo modello di ChatGPT, infatti, non condivide i dati dell’organizzazione verso l’esterno. Già il mese dopo, è arrivato un nuovo annuncio, stavolta per tutti: ChatGPT potrà dialogare e riconoscere le immagini. Presto gli si potrà quindi porre domande a voce, anche caricando immagini su cui poi formulare domande o richieste.
Giunta a novembre, l’ultima notizia dell’anno è stata l’arrivo imminente di una nuova funzionalità chiamata GPTs che permette a tutti di personalizzare la propria versione di ChatGPT per un caso d’uso specifico. Arriverà anche la possibilità di condividere e monetizzare i propri bot creati “esponendoli” in un GPT Store. Se ne immaginano per stendere testi per social network o didascalie, per rispondere a mail di ordinaria amministrazione, per creare parti di codice usate di frequente… Chi avrà l’idea più originale e utile, sarà premiato.
InnovazionePA è una iniziativa Soiel International, dal 1980 punto d’informazione e incontro per chi progetta, realizza e gestisce l’innovazione.
Tra le altre iniziative editoriali di Soiel:
Soiel International Srl
Via Martiri Oscuri 3, 20125 Milano
Tel. +39 0226148855
Fax +39 02827181390
Email: info@soiel.it
CCIAA Milano REA n. 931532 Codice fiscale, Partita IVA n. 02731980153