Per qualsiasi informazione inerente i prezzi o le modalità di effettuazione del servizio, contatta l'agente di zona oppure scrivi a info@entionline.it
o telefona allo 030/2531939.
Il Comunicato stampa del Garante, datato 30 gennaio 2025, ha annunciato il blocco di DeepSeek che, come si legge nel Comunicato medesimo, è il software di intelligenza artificiale relazionale, progettato da una startup cinese per comprendere ed elaborare le conversazioni umane, che è stato introdotto di recente sul mercato mondiale, dove è stato scaricato in pochi giorni da milioni di utenti. L’Autorità, oltre a disporre la limitazione del trattamento, ha contestualmente aperto un’istruttoria.
Il provvedimento del Garante ripropone il tema dell'intelligenza artificiale (IA) e dell'effettiva ammissibilità, nell'attuale contesto, di una sua introduzione ed utilizzazione pratica da parte delle Pubbliche Amministrazioni che, ad esempio, già intendono fare ricorso a ChatGPT, Gemini, Claude o DALL·E.
Al riguardo, va tenuto presente che l’AI Act distingue i sistemi di IA in base al rischio.
L’IA generativa, come ChatGPT, Gemini, Claude o DALL·E, rientra principalmente in due categorie:
L'introduzione di modelli o sistemi di intelligenza artificiale da parte di enti pubblici o privati che erogano servizi pubblici deve rispettare una serie di vincoli giuridici e principi fondamentali, in particolare in relazione alla sicurezza, al principio di uguaglianza e all'universalità dei servizi pubblici. L'AI Act dell'Unione Europea fornisce un quadro normativo essenziale per disciplinare l'uso dell'IA in questi contesti.
Se non chè, allo stato attuale, non vi è alcun sistema di intelligenza artificiale generativa che possa soddisfare pienamente i criteri di sicurezza stabiliti dall’AI Act.
E’ vero che sono già disponibili soluzioni IA per automatizzare i processi, gestendo grandi masse dati e documenti. Tuttavia, tali sistemi difficilmente possono essere considerati conformi alle regole di sicurezza e tutela del dato a cui sono tenute le Pubbliche Amministrazioni in base, da ultimo, all’AI Act.
1. Vincoli di sicurezza
L'AI Act classifica i sistemi di IA in base al rischio, imponendo obblighi specifici per quelli ad alto rischio, tra cui:
2. Principio di uguaglianza e universalità dei servizi pubblici
L’uso dell’IA nei servizi pubblici non deve compromettere l’accesso equo e non discriminatorio ai cittadini. L’AI Act e altre normative impongono:
3. Altri obblighi e best practices
Conclusione
L'introduzione dell'IA da parte delle PA è da considerarsi un processo ad alto rischio che richiede, preliminarmente, l'esecuzione di molte misure e azioni in attuazione dell’IA Act, che richiede interventi in diversi ambiti per garantire sicurezza, legittimità, liceità eticità degli output prodotti dalla IA.
In pratica, l’IA nelle PA deve rispettare vincoli stringenti per evitare discriminazioni e lesioni di diritti e libertà fondamentali, garantire sicurezza e mantenere l’universalità dei servizi.
Il rispetto dell’AI Act, del GDPR e delle normative europee e nazionali sui diversi temi da salvaguardare (sicurezza, diritti, legalità, integrità e eticità) è essenziale per una futura implementazione priva di responsabilità a carico delle PA e dei pubblici dipendenti fruitori.