Interrogativi in vista del Sommet africain de l’intelligence artificielle et de la cybersécurité – Hammamet, 30 mars – 1er avril 2026
Intelligenza Artificiale come Bene Pubblico: Sovranità, Infrastruttura e Inclusione nella Transizione Cognitiva Globale
Interrogativi in vista del Sommet africain de l’intelligence artificielle et de la cybersécurité – Hammamet, 30 mars – 1er avril 2026
Marco
Monguzzi
Analista
indipendente – Tecnologia, Etica e Società
Mahdia, Tunisia
Questo documento esprime una riflessione personale e non rappresenta la posizione di alcuna organizzazione. Nasce dall’osservazione delle crescenti discrepanze tra la retorica globale sull’“IA inclusiva” e le condizioni materiali di accesso, infrastruttura e sovranità tecnologica nei contesti del Sud del Mediterraneo e dell’Africa subsahariana. Si propone non di negare le opportunità offerte dal digitale, ma di interrogarsi sulle premesse necessarie affinché tali opportunità non si riducano a promesse simboliche.
In
un momento in cui l’intelligenza artificiale viene evocata come
soluzione universale, forse vale la pena chiedersi:
– Per
chi è davvero accessibile?
–
A
quali condizioni materiali, economiche e infrastrutturali?
Ancora più in profondità: quale competenza pratica accompagnano coloro che ne discutono nei grandi forum internazionali? Quanto delle loro proposte nasce dall’esperienza sul campo — nelle città senza banda stabile, negli uffici bloccati da dogane digitali, nelle case dove un anziano non riesce a ricaricare uno smartphone — e quanto invece risponde a logiche di visibilità, finanziamento o consolidamento di posizioni istituzionali?
E infine: qual è il costo reale di conferenze sovvenzionate — spesso con fondi pubblici o da donatori opachi — che celebrano un futuro tecnologico mai sottoposto a verifica empirica? Quando il dialogo diventa rituale, anziché strumento di trasformazione, rischiamo non solo di perdere tempo, ma di normalizzare l’illusione come politica.
È in questo spirito che ci si può avvicinare al prossimo Sommet africain de l’intelligence artificielle et de la cybersécurité a Hammamet, annunciato sotto lo slogan « Intelligence, sécurité, un continent connecté ». L’ambizione è nobile. Ma forse è utile chiedersi: che cosa significa “connesso” in un contesto dove la connessione stessa è un privilegio?
1. La transizione cognitiva non è un lusso top-down
La transizione cognitiva — ovvero il passaggio da società basate sulla memoria umana a società mediate da infrastrutture artificiali di conoscenza — non può essere un processo “top-down” guidato da chi non ha mai vissuto un blackout.
Chi progetta modelli che richiedono connessione continua, energia illimitata e hardware costoso, implicitamente esclude chi vive in contesti di fragilità infrastrutturale. E così, l’IA, venduta come strumento di semplificazione, diventa un ulteriore strato di esclusione.
Si consideri un esempio concreto: se per accedere a un servizio sanitario mediato da IA serve uno smartphone di ultima generazione, una connessione 5G e la comprensione di un’interfaccia in francese standard, non stiamo creando “inclusione”, ma una nuova forma di dogana invisibile — una barriera cognitiva, linguistica e tecnologica che separa chi può partecipare dal chi resta fuori.
2. Lacune strutturali: ciò che nessun summit nomina
Anche i documenti più sofisticati — come il rapporto del China Media Group sulle dieci tendenze dell’IA per il 2026 — tacciono su questioni fondamentali quando si applicano al contesto africano o mediterraneo.
La crisi dei dati di addestramento: se i dati umani si esauriscono, e i dataset sintetici richiedono potenza computazionale, chi potrà permettersi di addestrare modelli locali?
L’impatto occupazionale: si annunciano migliaia di agenti industriali, ma chi prepara i lavoratori alla transizione? E chi valuta il costo sociale di automatizzare compiti amministrativi in contesti dove l’impiego pubblico è già precario?
La sicurezza cognitiva: mentre si parla di “cybersicurezza”, si trascura la minaccia più insidiosa: la disinformazione generativa, i deepfake vocali, la manipolazione delle narrazioni pubbliche — strumenti letali in società fragili.
L’infrastruttura invisibile: nessun modello, per quanto intelligente, può funzionare senza energia stabile, connessione affidabile, hardware accessibile. Eppure, questi elementi — banali, materiali, essenziali — sono raramente al centro delle agende.
Proprietà intellettuale e diritto d’autore: la crisi invisibile dell’addestramento
Tra queste lacune, forse la più silenziosa — eppure la più esplosiva — è quella legata alla proprietà intellettuale. Nel 2025–2026, il confine tra “dati sintetici”, “dati pubblici” e “opere protette da copyright” è diventato il principale campo di battaglia legale a livello globale. Case editoriali, musicisti, programmatori e persino istituzioni pubbliche stanno citando in giudizio i creatori di modelli per aver addestrato sistemi su contenuti usati senza consenso né compenso.
La risposta emergente — l’uso di dataset sintetici o ottenuti tramite licenze commerciali trasparenti — non è un semplice aggiustamento tecnico: è una condizione di legittimità etica e giuridica. Senza di essa, ogni sistema di IA rischia di essere costruito su un sapere estratto, non condiviso.
E qui sorge una domanda ineludibile: se coloro che guidano il dibattito globale sull’IA non riconoscono — o peggio, ignorano — questa crisi fondamentale, come possono indicare una strada a chi deve applicare queste tecnologie nella realtà?
Come possiamo chiedere a un operatore sanitario di fidarsi di un assistente AI il cui “sapere” deriva da manuali medici coperti da copyright? Come possiamo proporre a un anziano di affidare la sua autonomia amministrativa a un agente il cui linguaggio è stato appreso da testi usati senza autorizzazione?
In questo contesto, una domanda semplice potrebbe scuotere la retorica del Summit:
«Quanti dei modelli presentati al Summit sono stati addestrati su dati il cui uso è legalmente contestato?»
Se nessuno sa rispondere — o preferisce non farlo — allora non stiamo costruendo un bene pubblico. Stiamo celebrando un’appropriazione collettiva mascherata da innovazione.
3. Il debito infrastrutturale cognitivo
Mentre il Nord del mondo dibatte di AI Alignment (allineamento etico dei modelli), il Sud deve combattere per qualcosa di più elementare: l’allineamento materico — energia stabile, hardware accessibile, connessione affidabile.
Questa asimmetria definisce ciò che possiamo chiamare debito infrastrutturale cognitivo: un divario non solo tecnologico, ma epistemico, tra chi può permettersi di pensare l’IA come questione morale e chi deve ancora chiedersi se il suo dispositivo si caricherà domani.
In questo contesto, il paradosso del “bene pubblico” diventa evidente. Come recita il rapporto del CMG, la Cina propone l’IA come bene pubblico globale. Ma un bene è “pubblico” solo se è appropriabile. Senza server locali, senza modelli che girano on-device (offline), senza capacità di addestramento autonomo, l’Africa e il Mediterraneo rischiano di diventare solo “consumatori di output” e “produttori di dati” — una forma di neo-colonialismo algoritmico, in cui i benefici restano altrove, mentre i rischi — privacy violata, dipendenza, disinformazione — restano qui.
4. High-Context AI: la vera sfida tecnica
La soluzione non sta nell’importare modelli giganti, ma nel costruire High-Context AI: sistemi intelligenti che comprendano il contesto locale — linguistico, energetico, sociale.
La tua proposta — un’IA che parli il tunisino, funzioni offline, e traduca comandi vocali semplici in azioni amministrative concrete — non è “low-tech”. È, al contrario, alta tecnologia contestualizzata. Richiede competenze avanzate in compressione modellare, adattamento linguistico, progettazione centrata sull’utente fragile.
Questo approccio ribalta la gerarchia del valore: l’efficienza non si misura in petaflops, ma in “autonomia residua” — cioè nella capacità di un sistema di continuare a funzionare quando manca la luce, la rete, o la fiducia.
Nel contesto assistenziale per anziani, questa autonomia si articola in due livelli:
Livello 1 (Locale): automatismi che funzionano senza rete (promemoria farmaci, gestione documenti archiviati);
Livello 2 (Sincrono): operazioni che attendono la connessione per inviare report o aggiornamenti.
Questa non è resilienza secondaria: è il cuore della progettazione etica.
5. Domande di rottura per un summit che voglia essere utile
Se il Summit di Hammamet desidera superare il teatro simbolico, forse potrebbe farsi queste domande — scomode, ma necessarie:
Sulla cybersecurity:
«Possiamo parlare di sicurezza del continente se le chiavi crittografiche e i data center che proteggono i nostri anziani risiedono a migliaia di chilometri di distanza, sotto giurisdizioni straniere?»Sull’inclusione linguistica:
«Quanti dei fondi stanziati per questo summit sono stati investiti nella traduzione dei dataset nei dialetti locali — Darija, Shilha, Tamazight — invece che in uffici di rappresentanza o catering per delegazioni?»Sull’impatto energetico:
«Un modello di IA che consuma come un intero villaggio rurale è davvero un progresso, o è un parassita energetico che sposta il costo della “intelligenza” sulle spalle di chi già soffre di carenza?»Sulla proprietà intellettuale:
«Quanti dei modelli presentati al Summit sono stati addestrati su dati il cui uso è legalmente contestato?»
Queste domande non cercano nemici. Cercano coerenza.
6. Conclusione: oltre il bene pubblico, verso il bene appropriabile
Alla vigilia di Hammamet, non si tratta di rifiutare l’idea di un’IA condivisa. Si tratta di ridefinirla.
Un
vero bene pubblico non è dichiarato: è costruito,
mantenuto, controllato localmente.
Non basta dire “l’IA è per tutti”. Bisogna chiedersi:
–
Chi la mantiene?
– Chi la ripara?
– Chi ne decide i limiti?
La transizione cognitiva globale sarà giusta solo quando nessuno dovrà più scegliere tra dignità e connessione.
E
forse, il contributo più prezioso del Sud non sarà un modello più
grande, ma una domanda più semplice:
“Funziona
anche quando tutto intorno a te smette di funzionare?”
Se
la risposta è sì, allora avremo davvero un bene pubblico.
Fino
ad allora, stiamo solo decorando il vuoto.
Nota metodologica
Questa riflessione si fonda su un approccio fenomenologico alla tecnologia, ispirato alla tradizione che da Husserl a Ihde e Verbeek interroga non solo cosa la tecnologia fa, ma come media l’esperienza umana del mondo. In particolare, si assume che l’intelligenza artificiale non possa essere compresa attraverso i soli benchmark tecnici o le dichiarazioni politiche, ma debba essere osservata nel suo essere-in-contesto: nelle case, negli uffici, nelle reti instabili, nei corpi anziani che ne tentano l’uso.
L’analisi è inoltre informata da un’osservazione partecipante prolungata nel contesto tunisino (Mahdia e regione del Sahel), dove l’autore ha potuto constatare direttamente:
le difficoltà quotidiane nell’accesso a dispositivi intelligenti (ritardi doganali, costi sproporzionati, mancanza di supporto tecnico locale);
l’impatto della disconnessione intermittente sulla fruibilità di servizi basati su cloud;
la distanza tra le narrazioni globali di “trasformazione digitale” e le capacità effettive di cittadini, operatori sanitari e amministratori locali.
Le comparazioni geopolitiche (Cina, USA, UE) non intendono offrire una classificazione esaustiva, ma servono da specchio critico: mettono in luce non tanto chi “vince” la corsa all’IA, quanto chi ne definisce i termini — e chi ne subisce le conseguenze senza averne voce.
L’analisi tiene conto anche delle dispute giuridiche in corso su copyright e proprietà intellettuale nell’Unione Europea, negli Stati Uniti e in Cina, riconoscendo che la legittimità dell’IA non è solo tecnica o etica, ma giuridicamente fondata. Un modello privo di trasparenza sui dati di addestramento non è neutrale: è potenzialmente illegittimo.
Infine, il testo adotta un orientamento etico-pragmatico: non giudica l’IA in astratto, ma valuta ogni sua applicazione in base a un criterio semplice: accresce o riduce l’autonomia delle persone più vulnerabili?
-mm-
Commenti
Posta un commento