Mondo Macchina Nr. 5-6 - Anno 2022

36 INNOVAZIONE do applicato ad una macchina è che non lo si può addestrare se non in un ambiente chiuso e protetto o, meglio ancora, in uno simulato. Durante la fase di addestramento, infatti, i suoi comportamenti saranno errati ed imprevedibili. Questa lunga introduzione serve a capire quanto si sia lontani dal concetto che sembra terrorizzare tutti (Commissione UE inclusa): che le macchine imparino ed evolvano in maniera autonoma. Da quanto appena scritto, è facile capire come ciò sia vero solo in una porzione minima di casi. Eppure è stato proposto un nuovo regolamento chiamato AIAct, volto a porre forti controlli nel campo dell'IA e che impatterà anche le macchine agricole. Questo avviene perchè i componenti di sicurezza di macchine e veicoli vengono, in generale, definiti come sistemi ad alto rischio e, se basati su IA, dovranno essere certificati da enti notificati. Da questa ultima frase emergono almeno tre lampanti debolezze: la prima è che il documento originale della commissione fa riferimento, appunto, all'Intelligenza Artificiale tout-court, ovvero potenzialmente a qualsiasi programma software o algoritmo che rientri nella definizione più generale (quasi tutti nel caso peggiore). La seconda debolezza sta nella mancanza di competenze nel campo dell'IA in svariati settori industriali e quindi nella difficoltà di avere centri competenti che possano effettuare certificazioni. La terza debolezza è che, per loro natura, i sistemi ML e DL sono strettamente dipendenti dia dati con i quali vengono addestrati e gli algoritmi utilizzati sono oggetto di ricerca continua: è quindi davvero possibile definire dei protocolli standard di certificazione? Beh, gli esperti sono piuttosto concordi nel rispondere "no" o “molto difficile” a questa ultima domanda. Se poi pensiamo al nostro comparto, l'applicazione di algoritmi ML o DL a sistemi di sicurezza delle macchine agricole existence ... but would anyone really want that in our industry? A very strong implication of reinforcement learning when applied to a machine is that it cannot be trained except in a closed and protected environment or, even better, in a simulated one. During the training phase its behaviour will be erroneous and unpredictable. This long introduction serves to understand how far we are from the concept that seems to terrorise everyone (including the EU Commission): that machines learn and evolve autonomously. From what has just been written, it is easy to see how this is only true in a very small portion of cases. Yet a new regulation called AI-Act has been proposed, aimed at placing strong controls in the field of AI and which will also affect agricultural machinery. This is because the safety components of machines and vehicles are, in general, defined as high-risk systems and, if based on AI, will have to be certified by notified bodies. At least three glaring weaknesses emerge from this last sentence: the first is that the original commission document refers to Artificial Intelligence toutcourt, i.e. potentially to any software programme or algorithm that falls under the most general definition (almost all in the worst case). The second weakness lies in the lack of expertise in the field of AI in various industries and thus the difficulty of having competent centres that can carry out certifications. The third weakness is that, by their very nature, ML and DL systems are closely dependent on the data with which they are trained and the algorithms used are the subject of ongoing research: is it therefore really possible to define standard certification protocols? Well, experts are rather unanimous in answering 'no' or 'very difficult' to this last question. If we then think of our own industry, the application of ML or INNOVAZIONE

RkJQdWJsaXNoZXIy NTY4ODI=