Tuteliamo le PMI distribuendo equamente le responsabilità nell’AI


“Sebbene l’eCommerce sia uno strumento chiave per favorire l’export delle PMI, l’internazionalizzazione rimane una sfida significativa: oltre il 54% delle imprese italiane fatica a espandersi oltre i confini nazionali per la mancanza di strategie digitali efficaci e dell’innovazione tecnologica necessaria a competere sui mercati globali”, ha sottolineato sul palco di Netcomm Forum Roberto Liscia, Presidente di Netcomm. “Nondimeno, il clima di sfiducia e tensione causato dallo scenario attuale porta a una intensificazione del protezionismo digitale, che minaccia la libera circolazione di dati, fondamentali, tra le altre cose, per intercettare i bisogni dei clienti e soddisfare le loro richieste”.

Fatta questa premessa, Liscia è passato a discutere di un argomento chiave per aprire all’internazionalizzazione delle imprese italiane su un piano di parità con i concorrenti, quello del ‘level plain field’, parlando con un esponente del Parlamento Europeo già molto attivo su altri temi della digitalizzazione, che ha lavorato al DSA, al DMA e all’AI Act: Brando Benifei, Presidente della delegazione parlamentare UE-USA.

La comparsa dell’AI nell’eCommerce

“Essendo gli operatori dell’AI quasi tutti collocati la di fuori dell’Unione, diventa ancora più importante disegnare un quadro normativo chiaro, che attribuisca responsabilità e doveri a chi di competenza, indicando chiaramente che cosa debbano fare la aziende per essere compliant con tutti gli elementi normativi”, ha osservato Liscia.

“Voglio essere molto chiaro, l’AI Act va a regolare casi d’uso dell’intelligenza artificiale che presentano rischi per la salute, la sicurezza e i diritti fondamentali”, ha precisato Benifei. “In moltissime applicazioni, l’uso che si fa dell’AI nell’ambito dell’eCommerce va incontro a casistiche non regolamentate, al massimo si può andare incontro a una verifica di conformità, in quanto questi usi non sono considerati ad alto rischio. Per esempio, le norme europee impediscono di utilizzare il riconoscimento delle emozioni nei luoghi di lavoro e studio, ma è assolutamente possibile l’uso del riconoscimento emotivo nello sviluppo di pratiche commerciali, quali la raccomandazione o il supporto”.

Maggiori responsabilità al vertice della value chain

“In altri termini, l’AI Act, nella maggioranza dei casi, impone che l’utilizzo dell’artificial intelligence sia il più trasparente possibile: diventa necessario far sapere che cosa viene utilizzato e come”, ha proseguito Benfei. “Rispetto poi alla verifica e alle sanzioni per un uso abusivo dei dati, o di possibili danni ai consumatori che derivano da un abuso, è indispensabile che le responsabilità siano distribuite in modo corretto, cioè in modo che coloro che stanno in cima alla catena del valore siano i principali responsabili di quello che può accadere a valle. Appropriatezza, qualità dei dati usati per testare il sistema, cybersicurezza, e verifica del controllo umano: tutti questi sono passi indispensabili prima che distribuire un qualsiasi prodotto, tanto più se al suo interno è prevista un’applicazione dell’AI”.

“Quindi noi tuteliamo le piccole e medie imprese creando un equilibrio, che io credo corretto, nella distribuzione delle responsabilità per avere un ecosistema protetto”, ha concluso Benifei. “Non soltanto comprare e utilizzare strumenti, ma capire che cosa c’è dentro per tutelare il consumatore e anche tutta la filiera. Perché spesso questi strumenti vengono utilizzati a cascata dai diversi costituenti della filiera stessa”.

di Massimo Bolchi



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link