Il 27 novembre si è tenuto presso la sede della Fondazione Amendola di Torino, coordinato dal Prof. Sergio Scamuzzi il convegno promosso dal nostro Forum sui temi della iniziativa europea nell'ambito della IA.
Di seguito, trovate per ogni relatore una sintesi dei principali punti toccati nell'intervento e la registrazione audio dell'intervento stesso. Per il Prof. Roberto Cavallo Perin l'intervento è suddiviso in due parti avendo lasciato spazio durante lo stesso a Brando Benifei intervenuto on line con tempi vincolati.
Le note riassuntive riportate sono state predisposte grazie al supporto di strumenti di IA sia per la trascrizione dell'audio (Gemini Pro) che per la successiva estrazione dei punti (NotebookML).
Il Prof. Cavallo Perin focalizza il suo intervento sul dibattito giuridico italiano riguardante l'applicazione dell'Intelligenza Artificiale (IA) nel diritto amministrativo, concentrandosi sulla sindacabilità degli atti amministrativi algoritmici e sul confronto tra l'evoluzione giurisprudenziale e la nuova normativa (Legge 132/2025 e AI Act).
Il dibattito giuridico sull'IA nel diritto amministrativo italiano è iniziato a Torino nel 2019. Le istituzioni chiave che si sono espresse formalmente sono il Consiglio di Stato e la Corte Costituzionale.
Il Consiglio di Stato ha stabilito che un atto amministrativo può essere emanato in base a un algoritmo, a condizione che siano rispettati: i diritti fondamentali, la trasparenza, la spiegabilità (o interpretabilità) dell'iter logico seguito, e in alcuni casi l'accesso al codice sorgente. Questa non è stata una "repulsione", ma una scelta di "entrarci dentro".
Il controllo sugli atti amministrativi (il vizio di eccesso di potere, in uso dal 1889) si basa sulla valutazione della logicità esterna. Il giudice valuta la ragionevole correlazione tra i presupposti di fatto, il mezzo scelto e l'obiettivo di interesse pubblico.
Storicamente, la giurisdizione non ha mai preteso che la motivazione coincidesse con il profondo intendimento del decisore. Se ci si è accontentati di "motivazioni esteriori" per 150 anni, non si capisce perché l'IA debba richiedere un perfezionismo maggiore. Basterebbe insegnare all'algoritmo a correlare motivazioni alle decisioni attingendo dal Data Lake.
Il tema dell'insostituibilità dell'apporto umano (Art. 14, L. 132/2025) è diventato l'elemento centrale del ragionamento vincente nel diritto amministrativo, prevalendo sull'esigenza di spiegabilità.
Sottolinea la ridondanza delle leggi che ricordano l'osservanza di diritti e trasparenza, già radicati nel codice costituzionale. Inoltre, critica la difficoltà giuridica nel formulare divieti basati sui mezzi (strumenti) anziché sui risultati (rischio di precludere ipotesi utili.
Audio intervento seconda parte
L'intervento di Brando Benifei si concentra sulla cornice normativa europea, in particolare sull'AI Act, illustrandone la struttura, i contenuti chiave (divieti, casi d'uso ad alto rischio, modelli potenti) e le sfide attuative, inclusa la discussione sulle recenti proposte di "semplificazione" (Omnibus).
L'AI Act non regola la tecnologia o le imprese (tranne i modelli più potenti), ma i casi d'uso in base a categorie di rischio. Si concentra sui casi sensibili o ad alto rischio che impattano potenzialmente diritti fondamentali, sicurezza e salute.
I modelli più potenti (come GPT) sono regolati attraverso un Code of Practice (codice di pratica) sviluppato con gli operatori. Questo serve a semplificare il controllo sul rispetto degli obblighi, come prevenire la creazione di contenuti pedopornografici o violenti.
La normativa vieta pratiche come l'utilizzo illimitato di telecamere biometriche a fini di sorveglianza, meccanismi di manipolazione subliminale, il riconoscimento delle emozioni nei luoghi di lavoro e di studio, e la polizia predittiva (sistemi che identificano persone non sospette a rischio di commettere crimini).
L'AI Act richiede misure di trasparenza, come il watermarking, per rendere riconoscibili i contenuti generati da IA. Un altro tema gigantesco è la tutela del diritto d'autore, per garantire la remunerazione dei contenuti umani usati per addestrare i sistemi generativi.
Esprime preoccupazione per la proposta di "semplificazione" (Omnibus) della Commissione Europea, in particolare per il ritardo nell'adozione degli standard tecnici necessari per misurare requisiti critici (es. qualità dei dati per evitare discriminazioni algoritmiche) negli usi ad alto rischio. Il ritardo è attribuito anche al dolo delle Big Tech.
Critica fortemente la proposta di rimuovere il registro pubblico delle imprese che si auto-esonerano dalle regole ad alto rischio. Togliere questo registro significa rimuovere la trasparenza necessaria ai cittadini, ai sindacati e alle autorità per verificare l'operato corretto.
L'AI Act è un benchmark mondiale. L'Europa deve rivendicare la propria sovranità regolatoria e autonomia per evitare che le regole vengano dettate oligopolisticamente dai grandi attori privati, ponendo al centro l'essere umano e i diritti.
Bonaldi fornisce una valutazione critica della Legge italiana 132/2025, definendola inadeguata per la mancanza di standard operativi, la governance politicizzata e la carenza di tutele per il lavoro e l'industria.
La legge italiana non era necessaria, essendo l'AI Act un regolamento direttamente applicabile. La Legge 132/2025 è vista come una "bandierina" piantata per motivi politici, che rischia di creare problemi di coordinamento con il processo europeo, soprattutto in caso di slittamenti nell'attuazione dell'AI Act.
La scelta italiana di assegnare la regia alla Presidenza del Consiglio e la vigilanza ad ACN e AGID (autorità non indipendenti) genera rischi di politicizzazione del controllo e solleva potenziali conflitti di competenza, in particolare con il Garante della Privacy e l'AGCOM.
La legge è una legge quadro o "legislazione in bianco" che enuncia principi condivisibili (centralità della persona) ma delega eccessivamente l'esecutivo (Governo o Ministeri) nella definizione degli standard e degli aspetti applicativi. Questo marginalizza il ruolo del Parlamento.
La legge non fornisce standard o linee guida chiare su aspetti cruciali, come: come misurare il "contributo umano rilevante e dimostrabile" per il copyright; il confine tra la sostituzione e la sovrapposizione algoritmica nel lavoro; o gli strumenti concreti di controllo per la trasparenza nelle professioni.
La legge manca di incisività nella tutela dei lavoratori. L'Osservatorio istituito ha pochi poteri vincolanti. Non sono presenti garanzie forti contro la sorveglianza algoritmica invasiva, lo scoring o la gestione automatizzata di turni e licenziamenti.
La legge include una clausola di invarianza finanziaria (Art. 26). Questo riflette l'assenza di politiche industriali chiare. Non ci sono risorse aggiuntive per la ricerca di base, il trasferimento tecnologico o incentivi indirizzati strategicamente alle PMI, minando la competitività italiana.
Il PD propone di seguire il percorso europeo, rafforzare il ruolo della contrattazione collettiva e del dialogo sociale per l'introduzione dell'IA nel lavoro, investire in formazione (upskilling e reskilling) e sostenere un Industrial Deal europeo finanziato con debito comune.
Il Prof. Terna affronta la questione dell'IA da una prospettiva geopolitica ed economica, concentrandosi sulla sostenibilità del modello attuale e sulla necessità di una robusta iniziativa europea sulla ricerca.
L'Europa è stretta tra i giganti Cina e Stati Uniti, con la Cina che, a suo avviso, ha il peso maggiore.
Il modello economico delle grandi aziende di IA (es. OpenAI) è insostenibile nel lungo periodo. Stanno chiedendo quantità enormi di miliardi per poter perdere fino al 2030. C'è un grave squilibrio tra i costi e i ricavi (es. l'utente medio spende solo 20 euro al mese).
L'IA deve affrontare due vincoli insostenibili che richiedono un cambiamento: l'enorme fabbisogno di energia (giganteschi data center) e la dipendenza dalle terre rare per i processori. La strada dei data center giganteschi è definita "impossibile" e "insensata".
L'Europa ha bisogno di progetti e finanziamenti. E’ opportuna la concentrazione di una massa critica di studiosi nello stesso luogo (come il CERN) per creare il capitale umano indispensabile ad affrontare l'innovazione. Il costo annuale di un CERN attuale (1,3 miliardi di euro) è ritenuto un ordine di grandezza ragionevole.
L'attuale IA fondata sulle reti neurali (connessionismo) non deve essere l'unico approccio. È cruciale che la ricerca continui in altre direzioni, come l'IA predittiva e l'IA spaziale. Inoltre, è fondamentale studiare come il cervello calcola, un processo che non segue il modello dei computer di Von Neumann.
Ferrero propone una visione culturale e geopolitica all'IA, criticando la narrazione mitica sull'IA, enfatizzando il conflitto geopolitico (Cina-Occidente)l'insostenibilità energetica e la necessità per l'Europa di sviluppare un'unità politica e una strategia a lungo termine basata sulle proprie eccellenze.
L'attuale IA è in uno stadio iniziale (paragonabile alla macchina da cucire a pedali) ed è gonfiata dal mito della superiorità sul cervello umano per ottenere finanziamenti. Il suo sviluppo futuro sarà enorme, ma il modello attuale è limitato.
I processori consumano enormi quantità di energia (5 watt per millimetro quadro), e il sistema ha superato il 4% del consumo elettrico mondiale. La crescita di questo consumo è più veloce della Legge di Moore, rendendo il modello non scalabile (rischio di "finire tutti bolliti").
Il vero pericolo è il conflitto tra culture (Cina, USA, Europa) mediate dalle macchine, non il rapporto uomo-macchina. La Cina punta all'implosione del sistema occidentale attraverso lo sviluppo economico e l'influenza, seguendo l'Arte della Guerra di Sun Tzu (entrare nella città accolti come liberatori).
L'Europa è un soggetto economico forte (mercato doppio degli USA) ma politicamente irrilevante e disunito, incapace di sforzi collettivi (solo l'1% del PIL governato centralmente).
L'Europa deve raggiungere l'unità politica e riaprire una partita su un orizzonte di vent'anni. Azioni concrete includono:
* Usare la normativa per sviluppare server in Europa (non soggetti a vincoli USA).
* Rinegoziare condizioni economiche con le piattaforme USA (l'Europa paga 130 miliardi di euro l'anno per l'utilizzo delle piattaforme americane).
* Concentrarsi sullo sviluppo di "macchine per produrre le macchine" (es. ASML, Zeiss), dove l'Europa ha *know-how* unico, evitando di competere sui beni di largo consum
Sostiene il modello CERN come terreno per la progettazione politica e culturale dell'unità europea. Ribadisce la necessità di un rinnovato pensiero occidentale, che accetti la diversità di opinioni e valorizzi sia l'apprendimento pratico (doing) sia l'ozio (thinking).
Il Prof. Aldinucci porta la prospettiva dell'informatica, concentrandosi sulla natura dell'IA generativa, la sostenibilità energetica, le capacità di ricerca italiana e le carenze nella politica industriale e di approvvigionamento della Pubblica Amministrazione.
L'IA generativa è un processo non galileiano che non compie deduzioni. Si basa sull'abduzione: utilizza basi vere e probabili per ottenere risultati verosimili. Non si può mai chiederle "promettimi che è vero".
L'IA deve essere complementare e non sostitutiva. L'uomo deve mantenere la capacità di verifica deduttiva (non probabilistica), come il controllo della prova.
Le previsioni più serie indicano che l'IA non "mangerà il mondo", ma entro il 2030 diventerà un'industria energivora e pesante (consumando all'incirca quanto le email e le videoconferenze attuali).
L'Università di Torino sta investendo nel data center SHPC4AI (Sustainable HPC for AI), puntando all'efficienza platinum (oltre il 90%), con riutilizzo del calore e stoccaggio di energia tramite idrogeno.
L'Italia ha dimostrato grandi capacità di ricerca (es. PyTorch su RISC-V, progetto DEAR). Tuttavia, manca la capacità industriale e pubblica di trasformare questi risultati in industria.
L'uso produttivo dell'IA nella Pubblica Amministrazione (PA) richiede come precondizione la re-immaginazione dei processi in modo che siano machine actionable (digitalizzabili e automatizzabili). Senza questo, l'IA non può incidere.
I grandi investimenti (Giga Factories) richiedono contratti off-take garantiti. Lo Stato potrebbe fornire queste garanzie (come cliente primario per università, sanità e PA), ma invece compra tutto da Microsoft. Il contratto CRUI (Università) è un esempio: in cambio di uno sconto, l'Università ha ceduto la proprietà dei dati a OpenAI/Microsoft
Un Notebook di Franco Marra dove si tratta di battaglie navali, di chiromanti, di come i bambini imparano giocando e altro ancora, e si sproloquia di tecniche di Creazione dell’Universo e di Etica (ma questa parte si può saltare). Tutto come scusa per parlare di Intelligenza Artificiale Generativa, disinformazione, politica e didattica. Accompagnato da un programma Python che consente a chiunque di verificare quanto è scritto.
Il documento presenta una dettagliata analisi teorica e pratica dell'Intelligenza Artificiale Generativa, concentrandosi in particolare sul funzionamento dei modelli linguistici. L'autore utilizza analogia evocative come la battaglia navale per spiegare concetti complessi come lo spazio vettoriale e la vicinanza semantica tra i termini. Viene illustrato il ruolo cruciale del transformer nel conferire significato estraendolo dal contesto e nel predire il termine successivo basandosi sulla distribuzione di probabilità. Infine, l'articolo si conclude con una riflessione sull'etica, la disinformazione e un approccio didattico sperimentale all'IA, fornendo in appendice uno script Python come strumento di verifica pratica.
Il forum Democrazia Etica Digitale e l' l'Archivio di Stato di Torino hanno organizzato nel mese di maggio tre edizioni di un workshop dedicato a introdurre i concetti essenziali alla base dell'IA generativa e l'uso di alcuni strumenti esemplificativi , potenti e di facile utilizzo, quali Botpress e NotebookLM. Di seguito il materiale utilizzato nel workshop del 23 maggio 2025
il 28 Marzo 2025 presso la Fondazione Amendola di Torino, Brando Benifei, europarlamentare e presidente del gruppo di monitoraggio dell'implementazione dell'AI Act, è intervenuto sul tema dell’AI in Europa a partire dallo stato di implementazione dell’IA Act.
La discussione ha toccato temi cruciali come la governance dell'AI a livello globale, la capacità competitiva dell'Europa rispetto a USA e Cina, l'implementazione dell'AI Act, le pressioni esterne (in particolare dagli Stati Uniti) e la necessità di una strategia europea coesa e con adeguate risorse.
La registrazione dell'evento è disponibile sul canale YouTube della Fondazione Amendola all'indirizzo: https://youtube.com/live/ivPn8eqZ7HI?feature=share
Di seguito sono riassunti i punti chiave e le idee più importanti emerse.
Governance dell'Intelligenza Artificiale a Livello Globale
Tre modelli di riferimento per la governance dell'AI:
o Europeo: con l’AI Act centrato sulla persona e sulle scelte etiche.
o Americano: caratterizzato dalla deregolamentazione e dalla logica del "chi arriva primo prende tutto".
o Cinese: con la regolamentazione fortemente orientata al primato dello Stato e al controllo sociale
Capacità Competitiva dell'Europa: Investimenti e Risorse
Importanza dell’impegno per lo sviluppo dell’AI e dell’uso nell’industria tradizionale: è riconosciuta l'importanza di investire in Europa sia nella capacità di sviluppo proprio sia nell'accelerazione dell'uso dell'AI nell'industria tradizionale europea, data la forte presenza manifatturiera in diversi paesi, tra cui l'Italia.
Divario negli investimenti: si sottolinea però il significativo divario negli investimenti in AI tra Cina (70 miliardi di dollari previsti per il 2025), USA (66 miliardi di dollari previsti nel 2025) e l'Europa. Il fondo europeo annunciato (20 miliardi di euro più 30 miliardi privati e 150 miliardi da BEI in 5 anni) è basato su risorse "per lo più ipotetiche, virtuali" a causa del bilancio europeo limitato (Benifei: "abbiamo un bilancio europeo che è l'1% della del PIL europeo" ).
Assenza di risorse “fresche” a livello europeo: la mancanza di adeguate risorse europee dedicate e la difficoltà di ipotizzare prestiti o debito comune europeo è addebitato all'attuale contesto politico, con una forte presenza di forze della destra nazionalista nel Consiglio UE ("la linea di questa destra nazionalista [...] è sempre la stessa: niente regole, non infastidire le imprese, non chiedere contributi, non mettere limiti").
Assenza e disattenzione dell'Italia: viene criticata la "totale distrazione e assenza" del governo italiano nel dibattito europeo sull'AI, evidenziata dalla scarsa partecipazione ai negoziati dell'AI Act e al summit mondiale di Parigi.
Implementazione dell'AI Act e Preoccupazioni
AI Act a tutela delle imprese europee: Benifei contesta l'idea che l'AI Act danneggi la competitività europea, sostenendo che in realtà mira a tutelare le imprese europee dallo "strapotere" delle grandi imprese tecnologiche non europee, imponendo responsabilità sulla sicurezza, sui rischi per i dati e sul controllo umano.
Timori di frammentazione e costi per le imprese: le imprese europee temono un'implementazione "molto spezzettata" dell'AI Act che possa aumentare tempi e costi per la certificazione, portando a una perdita di competitività.
Ritiro della direttiva sulla responsabilità civile AI: il ritiro proposto dalla Commissione Europea della direttiva per la responsabilità civile nell'uso dell'AI è visto come un segnale di cedimento alle pressioni americane e di una generica volontà di "ridurre il peso normativo". Questa direttiva era pensata per evitare una frammentazione in 27 regimi diversi di responsabilità civile da danno causato dall'AI.
Dipendenza dalle piattaforme statunitensi: l'Europa è attualmente largamente dipendente dalle piattaforme statunitensi per i servizi digitali. la spinta a rafforzare l'uso delle piattaforme di intelligenza artificiale nell'industria, senza un contestuale sviluppo di infrastrutture europee, favorisce ulteriormente la dipendenza dell’Europa per tecnologie e servizi controllati da entità esterne.
Impatto dell'IA sul mondo del lavoro e sulla tutela del diritto d'autore: l'IA offre nuove potenzialità creative ma minaccia anche posti di lavoro e non è riconosciuto il lavoro umano utilizzato per addestrare i sistemi di IA. L'AI Act introduce la necessità di applicare la tutela del diritto d'autore anche a questo ambito, ma forti spinte cercano di diluire questo principio.
Sottorappresentazione femminile nello sviluppo dell'intelligenza artificiale: l'AI Act, pur non potendo intervenire direttamente, pone l'attenzione sulla necessità di un'educazione inclusiva all'IA e di una maggiore diversificazione nei team di sviluppo per contrastare il rischio di discriminazioni algoritmiche, comprese quelle di genere.
Pressioni Internazionali e Relazioni Geopolitiche
Pressione americana contro la regolamentazione: gli Stati Uniti esercitano una forte pressione contro le leggi europee sull'AI, percepite come "barriere non tariffarie al commercio". Benifei segnala un "lento ma chiaro [...] aprire a queste ipotesi di in qualche modo rinegoziare il nostro approccio" da parte della Commissione Europea, nonostante le dichiarazioni di principio contrarie.
Scelte degli USA e possibile avvicinamento UE-Cina: la pressione che gli Stati Uniti stanno esercitando contro le normative digitali europee, come l'AI Act, di fatto espone l'Europa a un allontanamento dagli USA e a un potenziale avvicinamento con la Cina contraddicendo gli obiettivi americani di contrastare la Cina.
Ipotesi di accordi unilaterali di Trump con la Cina: ulteriore ipotesi, sussurrata nei corridoi, l’interesse dell’amministrazione Trump all’indebolimento della posizione internazionale dell’Europa come preludio ad un "grande accordo con la Cina alle spalle dell'Europa", utilizzando l'UE come merce di scambio
Proposte e Visioni per il Futuro dell'Europa
Necessità di un "CERN per l'Intelligenza Artificiale": viene ripresa e sostenuta l'idea di creare un centro di ricerca europeo sull'AI sul modello del CERN, per mettere insieme competenze e forza economica.
Rafforzamento della iniziativa "Eurostark": viene menzionata l'iniziativa per costruire una piattaforma europea integrata che comprenda cloud, piattaforme digitali e infrastrutture per l'addestramento dell'AI, al fine di garantire sovranità tecnologica e autonomia digitale.
Necessità di un "embrione di Unione Federale Europea": si suggerisce la creazione di una struttura parallela all'UE, con un numero minore di paesi ma un livello di integrazione politica più forte, per superare l'immobilismo dovuto alle dinamiche attuali dell'Unione a 27.
Ruolo dei corpi intermedi a livello europeo: viene sottolineata l'importanza di lavorare alla creazione di corpi intermedi (partiti, sindacati, ONG) a livello europeo per promuovere una maggiore collaborazione politica.
Completamento del mercato europeo dei capitali: viene evidenziata la necessità di completare un mercato europeo dei capitali realmente integrato per facilitare l'accesso ai finanziamenti per le imprese innovative europee.
Investimento in formazione e competenze: è cruciale investire nella formazione delle nuove generazioni per utilizzare l'AI e affrontare le trasformazioni del mercato del lavoro.
Tutela del diritto d'autore nell'era dell'AI: viene sottolineata la necessità di applicare la tutela del diritto d'autore anche ai contenuti utilizzati per addestrare i sistemi di AI, contrastando l'accaparramento gratuito del lavoro umano.
Contrasto alla discriminazione algoritmica e inclusione di genere: necessità di contrastare la discriminazione algoritmica, compresa quella di genere, e importanza della diversificazione nei team di sviluppo tecnologico.
Conclusioni
La discussione evidenzia una fase critica per lo sviluppo e la regolamentazione dell'intelligenza artificiale in Europa. Nonostante un quadro normativo avanzato come l'AI Act, l'Europa si trova a fronteggiare sfide significative in termini di risorse finanziarie, di capacità competitiva rispetto a USA e Cina, e di pressioni esterne che mirano a indebolire il suo approccio regolatorio. La necessità di una maggiore coesione politica a livello europeo, di investimenti strategici, di un dibattito pubblico informato e di una visione chiara sul futuro sono elementi cruciali per permettere all'Europa di giocare un ruolo da protagonista nel panorama globale dell'intelligenza artificiale, tutelando al contempo i propri valori e la propria autonomia. Le proposte di un "CERN per l'AI" e di un rafforzamento dell'integrazione politica europea rappresentano possibili vie per affrontare queste sfide.
Il 22 maggio 2023 si è tenuto il seminario "Democrazia e Intelligenza Artificiale" organizzato presso l’Istituto Gramsci. Il seminario si è concluso con la costituzione di 5 gruppi di lavoro impegnati a mettere a fuoco ed approfondire il rapporto tra il digitale e dell’IA in ambiti fondamentali per la nostra vita quotidiana ed il futuro della nostra convivenza sociale: la salute, la scuola e formazione, il lavoro, la democrazia, l’etica e l’ambiente, la finanza. Qui i documenti, le slide e la registrazione del seminario.
I gruppi di lavoro si propongono di: sistematizzare le nostre discussioni sulla chat, approfondire i temi proposti, individuare obiettivi praticabili da mettere all’attenzione di e portare al confronto con: cittadini, forze sociali, partiti, sindacati. Primo appuntamento per un confronto più largo: l’incontro sull'innovazione in Piemonte, momento della Conferenza programmatica del PD Piemonte, previsto nell'ambito della alla Festa dell’Unità Metropolitana di Torino il 9 settembre.
Tutti i gruppi hanno rilasciato i primi risultati del loro lavoro . Quanto prodotto non deve essere considerato definitivo ma un primo contributo su cui continuare il confronto in modo allargato.
Per ogni gruppo di lavoro sono resi disponibili i documenti condivisi, gli eventuali materiali di lavoro e contributi specifici.
Gruppo 2 Scuola e formazione digitale
Nonostante i programmi pubblici e le iniziative volontarie, l’esclusione e la marginalizzazione digitale tendono a crescere: per la non completa copertura di rete del territorio; per la mancanza di competenze d'uso e consapevolezza nell'uso del digitale; per la complessità di molti servizi, anche pubblici; per la mancanza di supporto ed assistenza adeguati.
Laddove il divario digitale permane, anche l’esercizio dei diritti politici, sociali ed economici sanciti dalla Costituzione, per primo la possibilità di partecipare al confronto democratico in modo libero e consapevole, è compromesso.
E' necessario agire perché nessuno rimanga escluso.
Vogliamo impegnarci per rendere il tema dell'inclusione digitale centrale nella agenda degli impegni della politica, per rafforzare e dare più efficacia alle iniziative di alfabetizzazione digitale, per rendere i servizi digitali pubblici più semplici, accessibili, inclusivi.
Lo vogliamo fare raccogliendo le iniziative e le esperienze più significative, facendole conoscere, mettendo a fuoco criticità e fattori di successo, elaborando proposte e raccomandazioni rivolte ai decisori politici.
In questa pagina sono raccolte le nostre raccomandazioni sull'Alfabetizzazione digitale e sulla Facilità d'uso dei servizi on line --> Inclusione digitale
contributi degli iscritti alla chat su svariati argomenti relativi all'impegno per un digitale più orientato ai valori dell'etica e della democrazia
link ad eventi di particolare interesse, prodotti anche con il contributo degli iscritti alla nostro gruppo di discussione
La transizione digitale ha avviato trasformazioni profonde, a tutto campo sia nel lavoro che nella vita quotidiana. Le nostre stesse idee sull’essere umano e la relazione con la vita sono in discussione (si pensi alla tecniche di interfacciamento diretto a livello neuronale tra cervello e macchine).
Nell’intreccio con la globalizzazione e la finanziarizzazione (sostenute e amplificate dal digitale) sono cresciute esponenzialmente le disuguaglianze sociali, cognitive ed economiche.
Siamo purtroppo lontani dagli obiettivi fissati da "Lisbona 2000" per un'economia della conoscenza.
Laddove il divario digitale è profondo e parti significative della popolazione sono escluse (per ragioni materiali o culturali o di irragionevole discriminazione) dall’accesso ai più diffusi mezzi di informazione e di comunicazione, l’effettivo esercizio dei diritti politici è compromesso.
Il digitale sta cambiando il mondo ed il rischio è che il cambiamento avvenga al di fuori e contro la partecipazione democratica dei cittadini, ponendo problemi di tenuta delle democrazie, delle libertà e dei diritti fondamentali
Non di meno sono anche evidenti i benefici e la crescita di benessere che il cambiamento in essere ha permesso e promette per il futuro: oltre un miliardo e duecento milioni di persone sono uscite dalla fame.
Oggi le forme tradizionali del confronto politico e della partecipazione democratica sono percepite obsolete ma il digitale è anche l’opportunità che abbiamo per ridare forza agli strumenti della vita democratica e dare efficacia e credibilità alla macchina dello Stato, perseguendo la piena attuazione dei diritti costituzionali , la salvaguardia della dignità delle persone, la riduzione delle disuguaglianze.
Con l’iniziativa “democrazia etica digitale” un gruppo di persone, provenienti da diverse esperienze professionali e con un comune impegno politico, - attraverso la condivisione e lo scambio di idee, conoscenze ed esperienze sul digitale, azioni informative e di confronto con tutti i cittadini ed i responsabili delle scelte di governo - intendono sostenere lo sviluppo ed uso etico del digitale, anche con la promozione di iniziative normative finalizzate.
garantire a tutti i cittadini il “diritto di accedere ai servizi digitali” in termini di strumenti e competenze;
proteggere il cittadino dalle “distorsioni” nel mercato digitale delle idee e dell’informazione ed affermare effettive garanzie di conoscenza e possibilità di scelta delle fonti informative;
salvaguardare la dignità delle persone contro forme di sorveglianza lesive della dignità umana e contrarie ai diritti di riservatezza, privacy, sicurezza, e contro discriminazioni basate sull’impiego di algoritmi automatici;
sostenere azioni di promozione e rafforzamento del digitale quale strumento per l’attuazione dei diritti: al lavoro, alla formazione, alla cura;
rimuovere le eccessive concentrazioni di potere economico e le distorsioni dei mercati e sostenere gli spazi concorrenziali;
fare leva sul digitale per assicurare la più ampia partecipazione di tutti i cittadini al confronto ed alle scelte pubbliche.