Mondo Macchina Nr. 5-6 - Anno 2022

n. 5-6/2022 35 INNOVATION "non supervisionata" ma, ancora una volta, un sistema basato su reti neurali "evolve" – o meglio impara in maniera autonoma – solo durante la fase di addestramento/apprendimento. Dopo tale fase e dopo essere stato testato, il risultato è sempre un sistema deterministico pure se estremamente bravo a fare ciò per cui è stato addestrato come, ad esempio, a riconoscere infestazioni in una pianta a partire da immagini o estrarre conoscenza da una mole di big data. Normalmente tale sistema è molto più bravo ed efficiente di un qualsiasi algoritmo tradizionale sviluppato per fare la stessa cosa, ma risulta comunque "statico". Esiste però una categoria ancora più ristretta che, in effetti, "evolve". Si tratta dei sistemi basati su algoritmi di "apprendimento rinforzato", ovvero di algoritmi che, per dirla in maniera molto semplificata, imparano dai propri errori. Ogni decisione/azione ha infatti un effetto specifico che genera un "reward", una ricompensa, che serve a dire al sistema se ha fatto qualcosa di buono oppure no, in modo che possa correggersi e convergere verso un risultato positivo. Un veicolo, ad esempio eseguirà delle manovre urtando contro svariati ostacoli finché, attraverso il meccanismo delle ricompense, non imparerà a muoversi senza urtare contro nulla. In questo caso, in ultima ipotesi, si potrebbe immettere sul mercato una macchina pre-addestrata ma in grado di affinare i propri comportamenti nel corso della propria esistenza … ma davvero qualcuno lo vorrebbe nel nostro settore? Un'implicazione molto forte dell'apprendimento rinforzato quanWe speak of neural networks because the DL is based on minimal 'processing' units, the perceptrons, which from a logical point of view work similarly to a human neuron. Each of them learns to recognise a well-defined feature or detail. DL algorithms learn in an 'unsupervised' manner but, again, a neural network-based system 'evolves' - or rather learns autonomously - only during the training/learning phase. After that phase and after being tested, the result is always a deterministic system even if it is extremely good at doing what it was trained to do, such as, for example, recognising infestations in a plant from images or extracting knowledge from a mass of big data. Normally such a system is much better and more efficient than any traditional algorithm developed to do the same thing, but it is still 'static'. There is, however, an even narrower category that actually 'evolves'. These are systems based on 'reinforcement learning' algorithms, i.e. algorithms that, to put it very simply, learn from their mistakes. Each decision/action in fact has a specific effect that generates a 'reward', which serves to tell the system whether it has done something good or not, so that it can correct itself and converge towards a positive result. A vehicle, for example, will perform manoeuvres by bumping into various obstacles until, through the mechanism of rewards, it learns to move without bumping into anything. In this case, as a last resort, one could market a machine that is pretrained but able to refine its behaviour over the course of its

RkJQdWJsaXNoZXIy NTY4ODI=