Iscriviti alla nostra newsletter Tea O'Clock!
Un mese dopo il licenziamento e la successiva riassunzione del suo CEO Sam Altman, OpenAI ha pubblicato una serie di linee guida per valutare quali modelli di IA potrebbero presentare "rischi catastrofici" per gli esseri umani. Il "Preparedness Framework" intende affrontare il divario tra lo studio scientifico del rischio dell'IA e la realtà del suo stato attuale. Il team di monitoraggio e valutazione di Open AI prevede di esaminare ogni nuovo modello per assegnargli uno dei quattro livelli di rischio: basso, medio, alto o critico, in quattro categorie. La prima riguarda la sicurezza informatica, la seconda la capacità di un modello di aiutare gli esseri umani a causare danni su larga scala ad altri (ad esempio attraverso un virus o un'arma nucleare), la terza la sua potenziale influenza sul comportamento umano e la quarta la sua potenziale autonomia, soprattutto se non vincolata. Secondo il quadro di riferimento dell'azienda, solo i modelli considerati a basso o medio rischio dovrebbero essere rilasciati.
Dopo la valutazione del rischio, il team sottoporrà le proprie conclusioni al Safety Advisory Group di OpenAI. Le decisioni finali in merito alla riduzione del rischio saranno lasciate al capo di OpenAI, con poteri di annullamento nelle mani del consiglio di amministrazione. Per contestualizzare, il licenziamento di Altman da parte del consiglio di amministrazione di OpenAI è stato in parte motivato dal suo favore per l'accelerazione dello sviluppo dell'IA, con scarsa considerazione per le minacce che potrebbe rappresentare. È stato riassunto pochi giorni dopo, dopo che il personale e gli investitori hanno protestato per la decisione, e da allora i membri del consiglio di amministrazione sono stati sostituiti.
Ulteriori informazioni su Techxplore.
Per coincidenza, un'azienda di intelligenza artificiale chiamata Verses ha scritto una lettera aperta pubblicata sul New York Times per chiedere il sostegno di OpenAI dopo aver compiuto un "significativo passo avanti interno" verso l'intelligenza generativa artificiale, o AGI. Verses ha citato in particolare una scoperta nell'inferenza attiva, un concetto che cerca di fornire un quadro matematico per la comprensione della senzienza vivente. Secondo Verses, questa evoluzione potrebbe contribuire a rendere i modelli linguistici di grandi dimensioni (LLM) più affidabili e vantaggiosi per l'umanità e, infine, portare all'intelligenza artificiale generativa. Nella sua lettera aperta, Verses ha affermato di avere i requisiti per ottenere l'assistenza di OpenAI nel suo progetto, professando anche il suo impegno per "un progetto attento alla sicurezza".
Come i concorrenti Deepmind, Anthropic e altri, OpenAI non ha fatto mistero della sua intenzione di sviluppare un'intelligenza artificiale. Nella dichiarazione di missione pubblicata sul suo sito web, l'azienda afferma: "Creare un'intelligenza artificiale sicura che porti benefici a tutta l'umanità". A differenza degli attuali modelli di IA, che tendono a essere progettati per una serie specifica di compiti, l'IA dovrebbe - in teoria - eguagliare o superare l'intelligenza umana. Alcuni esperti temono che l'avvento dell'AGI implichi il raggiungimento della Singolarità (cioè il raggiungimento di un'intelligenza artificiale simile a quella umana) e che l'algoritmo si evolva inevitabilmente in una superintelligenza, anche senza l'intervento umano. Altri esperti hanno espresso dubbi sulla possibilità di raggiungere l'AGI. Nel frattempo, solo il tempo ci dirà se la lettera aperta di Verses è un vero invito alla collaborazione... o una mera trovata pubblicitaria.
Per saperne di più, visitate il Drum.
Dopo quasi 40 ore di negoziati, i rappresentanti dell'UE a Bruxelles hanno concordato una serie storica di regole per l'uso dell'intelligenza artificiale (AI): l'AI Act. L'accordo segna l'inizio di una nuova era dopo anni di sviluppo sfrenato, pieno di potenziali abusi, che ha suscitato gli avvertimenti di personalità influenti, tra cui Bill Gates, Elon Musk e Sam Altman, come già detto. "Avevamo l'obiettivo di produrre una legislazione che garantisse che l'ecosistema dell'IA in Europa si sviluppasse con un approccio incentrato sull'uomo, rispettando i diritti fondamentali e i valori umani, creando fiducia e consapevolezza su come ottenere il meglio da questa rivoluzione dell'IA che sta avvenendo sotto i nostri occhi", ha dichiarato l'eurodeputato italiano Brando Benefei.
Definendo un sistema di livelli di rischio per il settore con livelli di regolamentazione corrispondenti, l'AI Act mira a promuovere lo sviluppo etico dell'IA. Include un solido quadro normativo per i modelli di IA generativa, la sorveglianza guidata dall'IA, le tecnologie biometriche e gli standard di trasparenza, tra gli altri. Previsto come punto di riferimento per gli altri governi che non hanno ancora definito una normativa sull'IA, gli effetti dell'AI Act potrebbero estendersi ai mercati extra-UE. Come ha dichiarato all'AP Anu Bradford, professore di diritto alla Columbia: "Dopo tutto, non è efficiente ri-addestrare modelli separati per mercati diversi". Questo accordo segue una serie di decisioni forti dell'UE per regolamentare l'industria tecnologica, come il Digital Markets Act e il Digital Services Act.
Maggiori informazioni su Tech Portal e sul Guardian.
Negli ultimi anni la privacy digitale è stata un argomento piuttosto scottante: richiesta inequivocabilmente dai consumatori, ma raramente concessa dai giganti tecnologici. Nel 2023, tuttavia, la situazione sembra essersi spostata a favore dei consumatori, poiché le principali aziende tecnologiche hanno recentemente migliorato le loro pratiche di protezione della privacy.
Non estranea alla privacy dei consumatori, Apple ha ulteriormente rafforzato le protezioni per la privacy dei suoi dispositivi e ha introdotto la "verifica della chiave di contatto" in iOS 17.2, consentendo agli utenti di verificare le chat di Messenger ed evitare così possibili truffe da parte di imitatori. Google ha annunciato che la cronologia delle posizioni di Google Maps sarà presto salvata direttamente sul dispositivo, anziché nel cloud, per una maggiore privacy. E soprattutto Meta ha iniziato a introdurre la crittografia end-to-end per le chat di Facebook Messenger, uno dei suoi più grandi miglioramenti alla privacy fino ad oggi.
Per ulteriori informazioni, leggete Fast Company.
Scoprite tutte le ultime notizie, articoli, repliche di webinar e cinquantacinque eventi nella nostra newsletter mensile, Tea O'Clock.