n. 5-6/2022 37 INNOVATION va sicuramente monitorato, e ci si dimentica un po' troppo spesso, ultimamente, tutti i vincoli ed i regolamenti che un costruttore deve già soddisfare per rendere sicuro il proprio prodotto. Si eseguono accurate analisi dei rischi e, anche se si usa un algoritmo nel campo dell'IA, abbiamo visto in precedenza che il sistema risultante che verrà immesso sul mercato sarà comunque un sistema deterministico e che non evolve autonomamente dopo la messa in servizio. E onestamente è probabilmente molto remoto il futuro in cui ciò avverrà. FederUnacoma, assieme al CEMA, è stata estremamente attiva negli ultimi mesi per definire alcune proposte di emendamento all'AI-Act, volte a rendere possibile che la sua applicazione risulti ragionevole nel nostro settore. Non vorremmo ritrovarci, nei prossimi anni, a dover far certificare da un ente terzo un sistema di guida automatica robusto e ben testato solo perché usa un algoritmo basato su approcci statistici che, da proposta attuale, rientrerebbe nella definizione di IA inserita nell'Atto da parte della Commissione. Questo non toglie che se un sistema con implicazioni di sicurezza che implementa soluzioni di IA che gli consentono di apprendere anche dopo la sua messa in opera possa, o debba, essere testato e certificato (sulla base di quali criteri e standard, sarà argomento di discussione degli anni a venire). La realtà, a parere di chi scrive, è che l'AI-Act sia stato pensato per affrontare problemi molto importanti di carattere etico e sociale che si potranno presentare dall'uso dell'Intelligenza Artificiale. Si vuole evitare, infatti, che un algoritmo possa prendere decisioni che possano catalogare un essere umano, veicolare i comportamenti di una società e così via. L'intento, a mio avviso, è sicuramente lodevole e tali obiettivi legati all'essere umano ed ai suoi diritti vanno certamente perseguiti. Ma questo non significa dover trattare l'IA come un "orco cattivo" anche nei casi in cui tale orco, in realtà, è pericoloso quanto Shrek. Alessio Bolognesi DL algorithms to agricultural machinery safety systems should certainly be monitored, but we forget a little too often, lately, all the constraints and regulations that a manufacturer already has to fulfil in order to make his product safe. Accurate risk analyses are carried out and, even if an algorithm is used in the field of AI, we have seen before that the resulting system that will be put on the market will still be a deterministic system that does not evolve autonomously after commissioning. And honestly, the future in which this will happen is probably very remote. The FederUnacoma, together with CEMA, has been extremely active over the last few months in defining a number of proposals for amendments to the AI-Act, aimed at making it possible for its application to be reasonable in our industry. We would not like to find ourselves, in the coming years, having to have a robust and well-tested automated driving system certified by a third party just because it uses an algorithm based on statistical approaches that, as currently proposed, would fall under the Commission's definition of AI in the Act. This does not detract from the fact that a system with safety implications that implements AI solutions that enable it to learn even after it has been deployed can, or should, be tested and certified (on the basis of which criteria and standards will be a matter of debate for years to come). The reality, in the writer's opinion, is that the AI-Act is designed to address very important ethical and social problems that may arise from the use of Artificial Intelligence. In fact, it is intended to prevent an algorithm from making decisions that can categorise a human being, convey the behaviour of a society, and so on. The intent, in my opinion, is certainly laudable, and such goals related to human beings and their rights should certainly be pursued. But this does not mean treating AI as an 'evil ogre' even in cases where that ogre is actually as dangerous as Shrek. Alessio Bolognesi
RkJQdWJsaXNoZXIy NTY4ODI=