USA, Regno Unito e UE firmano il primo trattato mondiale sull'intelligenza artificiale
05 Sep, 2024 ● Notizie sulle Crypto Valute
Il mondo ha compiuto un passo significativo verso l'allineamento dei propri obiettivi e valori in materia di intelligenza artificiale (IA) a seguito di una riunione dei ministri della Giustizia del Consiglio d'Europa.
Gli Stati Uniti, l'Unione Europea e il Regno Unito dovrebbero firmare la Convenzione quadro sull'IA il 5 settembre.
Questo trattato sottolinea l'importanza dei diritti umani e dei valori democratici nella regolamentazione dei modelli di IA utilizzati sia dal settore pubblico che da quello privato.
La Convenzione quadro sull'IA sarebbe il primo trattato internazionale giuridicamente vincolante sull'IA, ritenendo i firmatari responsabili di qualsiasi danno o discriminazione causati dai sistemi di IA.
Richiede inoltre che i risultati di questi sistemi rispettino i diritti dei cittadini all'uguaglianza e alla privacy, fornendo un ricorso legale a coloro che sono stati colpiti da violazioni legate all'IA.
Tuttavia, le sanzioni, come le multe, per le violazioni non sono ancora state stabilite.
In questa fase, il rispetto del trattato viene imposto solo attraverso il monitoraggio.
Peter Kyle, ministro britannico per la scienza, l'innovazione e la tecnologia, ha descritto la firma del trattato come un primo passo "importante" a livello globale.
"Il fatto che speriamo che un gruppo così eterogeneo di nazioni sottoscriva questo trattato dimostra che in realtà stiamo affrontando come comunità globale le sfide poste dall'IA", ha osservato Kyle.
Il trattato è stato inizialmente redatto due anni fa con il contributo di oltre 50 Paesi, tra cui Canada, Israele, Giappone e Australia.
Mentre questo trattato è il primo accordo internazionale sull'IA, le singole nazioni hanno lavorato alle proprie normative sull'IA.
La scorsa estate, l'UE è stata la prima giurisdizione a implementare ampie norme che regolano lo sviluppo e l'impiego di modelli di IA, in particolare quelli di alto livello con una significativa potenza di calcolo.
La legge europea sull'IA, entrata in vigore il 1° agosto, ha introdotto norme sostanziali sull'IA attraverso un'implementazione graduale e requisiti chiave di conformità.
Anche se la legislazione è stata progettata tenendo conto della sicurezza, ha attirato le critiche degli sviluppatori di IA che sostengono che ostacola l'innovazione all'interno della regione.
Meta, la società madre di Facebook, ha interrotto il lancio dei suoi ultimi prodotti di IA, tra cui Llama2, nell'UE a causa delle normative che limitano l'accesso agli strumenti di IA più avanzati per gli europei.
In agosto, diverse aziende tecnologiche hanno scritto una lettera ai leader dell'UE chiedendo più tempo per conformarsi alle nuove normative.
Negli Stati Uniti, il Congresso non ha ancora introdotto un quadro nazionale per la regolamentazione dell'IA, ma l'amministrazione Biden ha istituito comitati e task force per la sicurezza dell'IA.
Nel frattempo, la California ha elaborato e approvato attivamente normative sull'IA. Recentemente, due proposte di legge sono passate all'Assemblea statale e attendono una decisione da parte del governatore Gavin Newsom.
Una proposta di legge regolamenta e sanziona la creazione di repliche digitali non autorizzate generate dall'IA di personalità decedute.
La seconda, una proposta di legge controversa e osteggiata da molti sviluppatori di IA, impone test di sicurezza per la maggior parte dei modelli di IA avanzati e richiede disposizioni per un "interruttore di sicurezza" per tali modelli.
Le norme sull'IA della California sono particolarmente significative, in quanto lo Stato è la sede di importanti sviluppatori come OpenAI, Meta e Alphabet.
Fonti:
https://cointelegraph.com/news/global-ai-treaty-human-rights-regulation
https://www.ft.com/content/4052e7fe-7b8a-4c42-baa2-b608ba858df5