3 – Gli uomini
3.1 - Gli scienziati e tecnologi
Tanti personaggi hanno contribuito a tessere la storia dell’automazione, fin dalle epoche più remote: con piccole innovazioni o con grandi intuizioni, con idee geniali e con raffinate elaborazioni teoriche. Negli ultimi due secoli, e in particolare nel ‘900, si è avuto un susseguirsi di personalità, ampiamente citate e ricordate nel capitolo relativo alle tecnologie.
Qui di seguito vengono presentati i profili delle figure, per vari aspetti, più significative, raggruppandole, per comodità espositiva, in quattro gruppi (anche se alcuni di loro potrebbero figurare in più di un raggruppamento).
Troviamo così gli scienziati e i tecnologi, tra i quali si collocano fisici, matematici, ingegneri, informatici.
Ci sono poi gli inventori che spesso diventano imprenditori, dando vita a realtà industriali a volte storiche e globali.
Alcuni grandi nomi appartengono al mondo accademico e ai vari centri e istituzioni di ricerca pubblica e privata.
Infine, non si possono non ricordare alcune realtà associative, con particolare riferimento – anche se non esclusivamente – al contesto italiano, che hanno riunito e visto collaborare molti dei protagonisti del variegato panorama dell’automazione, della strumentazione e del controllo di processo; così come vanno menzionate alcune manifestazioni fieristiche, dove il mondo dell’automazione si dava e si dà appuntamento e dove innovazioni e soluzioni vengono presentate e sottoposte alla valutazione del mercato.
3.1.1 - James Watt (1736 - 1819)
Nato a Greenock, in Scozia, figlio di un capo carpentiere, si era formato una buona cultura umanistica e matematica. A 19 anni va a Londra per imparare il mestiere di fabbricante di strumenti scientifici e dopo un anno torna in Scozia dove viene nominato fabbricante di strumenti di precisione all’Università di Glasgow. Incaricato di riparare un modello di macchina a vapore di Newcomen, riesce dove aveva fallito un suo collega di Londra. Eseguendo una serie di esperimenti, Watt si rende conto dell’eccessivo consumo di vapore della macchina e ne individua la causa nel raffreddamento dovuto all’immissione di acqua a ogni corsa attiva. Ciò lo porta a intuire correttamente l’esistenza del calore latente di condensazione del vapore.
All’inizio del 1765 ha l’idea geniale, che risolve il problema, del condensatore separato nel quale scaricare il vapore; restando il cilindro alla più alta temperatura possibile, si può impiegare il vapore invece della pressione atmosferica per spingere in basso lo stantuffo. Con questa innovazione e con l’altra della camicia di vapore attorno al cilindro, la macchina aumenta considerevolmente la sua efficienza arrivando a consumare, a parità di potenza, meno di un terzo del carbone necessario alle altre macchine.
Dopo aver ottenuto il brevetto (1769) per “un nuovo metodo per diminuire il consumo di vapore e di combustione nella macchina a vapore”, nel 1773 si trasferisce a Birmingham dove collabora con l’industriale Matthew Boulton per lo sviluppo della sua invenzione.
Si susseguono perfezionamenti quali: la sostituzione del rotismo con un sistema biella-manovella; il sistema a doppio effetto, che raddoppiava la potenza con uno stesso cilindro, facendo uso anche di un meccanismo per trasmettere la forza nei due sensi noto come “parallelogramma”; il “principio dell’espansione”, consistente nell’immettere il vapore soltanto all’inizio della corsa lasciando poi agire la sua forza espansiva.
Nel 1787 introduce il regolatore a forza centrifuga, che gli conferisce un posto d’onore nel Pantheon dell’automazione. Aveva nel frattempo già ricevuto l’ambito riconoscimento di essere eletto membro della prestigiosa Royal Society londinese.
Agli inizi dell’800, mentre Watt si ritira dal lavoro attivo, la sua macchina raggiunge una buona perfezione struttura unita a un buon rendimento e a una potenza che raggiunge i 50 CV. Watt però resterà sempre diffidente verso l’impiego di vapore ad alta pressione; ma sarà proprio superando questo vincolo che in pochi anni si svilupperanno modelli in grado di aumentare il numero di CV per unità di peso; permettendo quindi di realizzare applicazioni per i mezzi di trasporto e di aprire la strada alla locomotiva e poi ai battelli a vapore.
Prenderà da lui il nome l’unità di misura della potenza nel Sistema Internazionale di unità di misura.


3.1.2 - Pierre-Simon De Laplace (1749 – 1827)
Fisico e matematico francese, il suo nome è presente nel mondo dei controlli automatici per l’ampio impiego della celebre Trasformata omonima, di grande utilità per la ricerca di soluzioni di equazioni differenziali ordinarie e derivate parziali e per il calcolo della funzione di trasferimento dei sistemi dinamici lineari stazionari.
Laplace entra all’Università di Caen all’età di 16 anni e a 18 scopre il teorema sui determinanti che porta il suo nome. Nel 1773 diventa membro dell’Accademia delle Scienze.
Si interessa attivamente alla meccanica celeste e affronta i molti problemi aperti dalla applicazione della legge di gravitazione universale di Newton: in particolare, applica il metodo perturbativo – che cioè tratta l’azione dei pianeti come una correzione a quella predominante del Sole – per analizzare l’influenza del sistema dei pianeti sul moto di uno di essi. Il metodo sarà alla base di studi specifici condotti nei decenni successivi, come quello che porterà alla scoperta di Nettuno.
Nel 1787 Laplace presenta all’Accademia un’importante memoria sulla cosiddetta accelerazione secolare del moto medio della Luna: aveva trovato che, sebbene questo moto dipenda essenzialmente dall’azione gravitazionale della Terra, l’azione del Sole svolge un ruolo rilevante. Il moto lunare risulta accelerato (o decelerato) quando il moto terrestre tende a una minore (o maggiore) eccentricità: Laplace dimostra che il fenomeno non è secolare ma ha un periodo di milioni di anni.
Nel trattato Esposizione del sistema del mondo (1796), rivolto a un pubblico di non specialisti e considerato un modello di prosa francese, Laplace elabora l’ipotesi kantiana sull’origine del sistema solare. Egli ipotizza l’esistenza di una “nebulosa primordiale” gassosa a forma di disco lentamente ruotante e in contrazione a causa della mutua
attrazione delle sue parti; per la conservazione del momento angolare, la velocità angolare deve aumentare e alla fine, alla periferia della nebulosa, la forza centrifuga ha la meglio su quella gravitazione, determinando la separazione di un anello di materiale dal resto della materia; la non uniformità della distribuzione della materia negli anelli è responsabile del graduale addensarsi della materia di un anello intorno alla regione di maggiore densità dando vita a un pianeta. È stata una delle teorie di maggior successo nella storia della scienza, considerato che è rimasta praticamente senza rivali per oltre un secolo.
Nella Mécanique céleste, apparsa in cinque volumi fra il 1799 e il 1825, Laplace sintetizza il lavoro di più generazioni di fisici matematici, compreso il proprio, sulle applicazioni della teoria newtoniana della gravitazione ai moti celesti. Vi espone anche una compiuta teoria delle maree.
Del 1812 è il trattato Théorie analytique des probabilités, che pone Laplace tra i fondatori della teoria delle probabilità, alla quale egli conferisce l’assetto classico e della quale applica i metodi allo studio dei fenomeni naturali. Nello stesso trattato introduce importanti idee di matematica pura, fra cui la teoria delle citate trasformate (anche se, secondo alcuni, la forma della trasformata di Laplace fu scoperta originariamente da Eulero).
Nel 1799 Napoleone lo nomina ministro degli interni; poi lo rimuove dall’incarico e lo fa senatore (diventerà vicepresidente del senato nel 1803); più tardi sarà “conte dell’Impero” e, dopo la restaurazione, marchese.
Fra le altre attività scientifico-istituzionali, ha fatto parte della commissione per la scelta del sistema metrico decimale. Si devono a Laplace contributi fondamentali in vari campi della matematica e della fisica.

Il Laplaciano
Viene chiamato laplaciano l’operatore di Laplace, che si esprime come l’operatore differenziale vettoriale “nabla” elevato al quadrato.
Viene così definito: data una funzione in uno spazio euclideo, l’operatore di Laplace applicato a è la divergenza del gradiente di :
3.1.3 - Jean Baptiste Joseph Fourier (1768-1830)
Matematico e fisico francese, è nato ad Auxerre, cittadina della Borgogna; era il diciannovesimo figlio di un sarto e rimane orfano prima di compiere nove anni. Scopre la sua vocazione per la matematica già a tredici anni e la sua aspirazione sarebbe stata quella
di intraprendere la carriera militare, nel genio o nell’artiglieria. Tuttavia in quegli anni i corpi tecnici dell’esercito erano riservati ai nobili e agli alto borghesi, di conseguenza la sua domanda viene respinta. Si dedica quindi alla carriera ecclesiastica e diviene novizio dei frati Benedettini presso l’abbazia di St. Benoit-sur-Loire.
Nel 1789 la Rivoluzione Francese sconvolgerà completamente la vita di Fourier: un decreto dell’Assemblea impone il divieto di prendere gli ordini. Fourier, che aveva vissuto la carriera ecclesiastica come una scelta di ripiego, aderisce in maniera convinta agli ideali della Rivoluzione Francese: i suoi scritti lo testimoniano, anche se il suo impegno politico sarà caratterizzato dalla moderazione. Il suo equilibrio lo rende inviso ai giacobini più estremisti e, nel periodo del terrore, gli costerà una condanna a morte a cui riuscirà a sottrarsi solo grazie allo sconvolgimento politico seguito alla condanna a morte dello stesso Robespierre. Il suo mentore Gaspard Monge, scienziato a cui si deve la geometria descrittiva moderna, lo presenta a Napoleone che lo vuole tra gli scienziati che lo seguono nella spedizione in Egitto, impresa alla quale Bonaparte voleva dare anche un carattere culturale. In Egitto Fourier riveste importanti cariche politiche proprio nel periodo in cui viene rinvenuta la stele di Rosetta che venti anni dopo consentirà a Champollion, sostenitore di Fourier, di decifrare i geroglifici.
Tornato a Parigi, Fourier è tra i fondatori della scuola Politecnica e viene nominato da Napoleone prefetto dell’Isère (a Fourier si deve la strada che attraversa il Monginevro e unisce Grenoble a Torino). Alla restaurazione della monarchia, lo scienziato viene estromesso da tutte le istituzioni accademiche e politiche, ma vi rientrerà nel 1822 con la carica di Segretario Permanente dell’Accademia di Francia che manterrà fino alla morte.
È nei primi anni del XIX secolo, mentre è impegnato nelle ricerche sulla trasmissione del calore, che Fourier compie una scoperta che avrebbe profondamente influenzato la matematica, la fisica e l’ingegneria. Nel tentativo di risolvere un problema formulato in termini di equazioni differenziali alle derivate parziali, legato alla descrizione del flusso termico, Fourier giunge allo sviluppo di funzioni in serie di seni e di coseni: aveva scoperto le serie trigonometriche che ora portano il suo nome. Nella prima formulazione della sua teoria, Fourier è convinto che qualsiasi funzione, continua o discontinua, possa essere sviluppata in serie. Oggi sappiamo che persino per una funzione continua lo sviluppo può essere impossibile e le serie di Fourier possono divergere; tuttavia per tutte le funzioni importanti da un punto di vista pratico la sua idea è applicabile.
Le inesattezze e la mancanza di rigore del primo lavoro sul flusso termico portano il noto matematico torinese Giuseppe Luigi Lagrange, uno dei docenti di Fourier, a esprimere delle riserve e a dimostrarsi contrario alla pubblicazione del lavoro. Anche a causa delle numerose disavventure politiche, con l’avvicendarsi dei diversi regimi in Francia, gran parte del lavoro di Fourier verrà pubblicato tardi e in forma poco rigorosa; questo fa sì che in qualche caso i suoi risultati non gli vengano riconosciuti.
A Fourier si devono le idee fondamentali dell’analisi armonica, applicate in ogni ambito della fisica e dell’ingegneria dove si tratta di fenomeni ondulatori (dalle onde elettromagnetiche a quelle acustiche); ma a lui si devono anche la fondamentale teoria sulla trasmissione del calore (Teoria analitica del calore, 1822) e la pratica del calcolo dimensionale, caposaldo di ogni operazione fisica o ingegneristica.
Fondamentale poi è il ruolo della Trasformata di Fourier (TF), che ha un gran numero di applicazioni nel campo dell’analisi dei segnali di qualunque tipo e nel campo della digitalizzazione dei segnali analogici alla luce del Teorema del campionamento di Nyquist.
Fourier soffriva di reumatismi e probabilmente di malaria, contratta in Egitto; muore nel maggio del 1830, pochi giorni dopo aver subito un attacco di angina pectoris mentre scendeva dalle scale. (da un articolo di Jacopo di Blasio, Automazione e Strumentazione, luglio-agosto 2009)

3.1.4 - James Clerk Maxwell (1831 - 1879)
Fisico scozzese, nato a Edimburgo, frequenta la locale università per poi passare al Trinity College di Cambridge dove nel 1854 conseguito il diploma e, poco dopo, vince lo “Smith’s Prize”. Inizia a sviluppare gli studi sulla teoria dei colori e pubblica un articolo con l’indicazione di come i vari colori potevano essere ottenuti dai suoi tre colori fondamentali.
Nel frattempo individua quello che sarebbe divenuto uno dei temi fondamentali della sua ricerca: la teoria dell’elettricità e del magnetismo, che studia a partire dalle ricerche sperimentali di Michel Faraday.
Divenne celebre tra i fisici matematici britannici dopo la conquista dell’Adams Prize, ottenuta per aver elaborato un modello per spiegare la stabilità degli anelli di Saturno (aveva anche realizzato un dispositivo meccanico per simulare i complessi moti satellitari).
Dopo un breve periodo ad Aberdeeen, nel 1860 si trasferisce a Londra, dove diviene professore di fisica e di astronomia. In questo periodo collabora con D.B. Stewart e F. Jenkins nella determinazione delle unità di misura elettriche: i suoi studi porteranno alla definizione dell’unità di resistenza, l’Ohm, in seguito universalmente accettata. Sempre di questi anni e sempre in contatto con Faraday, viene sviluppato un modello organico dei fenomeni elettromagnetici, visti alla luce del concetto di campo introdotto appunto da Faraday. In alcuni articoli fondamentali, Maxwell introduce il concetto di “corrente di spostamento”, individua la possibilità che perturbazioni del mezzo potessero propagarsi per onde e identifica la luce come una perturbazione elettromagnetica dell’etere (su questo spetterà poi a Rudolph Hertz raccoglierne l’eredità e verificare sperimentalmente l’esistenza delle onde elettromagnetiche). Questi studi vengono coronati nel ’66 con la formulazione delle celebri equazioni tuttora note come Equazioni di Maxwell, fondamento di ogni applicazione dell’elettromagnetismo.
Lasciata Londra, si trasferisce nella propria tenuta scozzese di Glenlair, dove può concentrarsi sui suoi studi facilitato da una fitta corrispondenza con i maggiori scienziati del tempo. Ritorna sui temi della teoria cinetica, proponendo un modello molecolare specifico di gas; e approfondisce l’analisi del secondo principio della termodinamica, introducendo lo strumento concettuale del celebre “diavoletto” che chiarisce come il secondo principio non valga necessariamente a livello molecolare.
In uno scritto dello stesso anno, On Governors (“sui regolatori”), Maxwell avvia la riflessione sui meccanismi autoregolantisi che, operando in certi sistemi fisici con meccanismi di retroazione, ne garantiscono la stabilità strutturale. Questo studio si colloca da un lato alla radice della pianta che evolverà nella cibernetica e nella scienza dei controlli, dall’altro alla base degli studi matematici sui sistemi dinamici non lineari (proseguiti poi da Henry Poincaré).
Uscirà ancora da Glenlair per tornare a Cambridge e progettare il Cavendish Lab, che diventerà, anche per merito suo, una delle più importanti strutture di ricerca della fisica europea.
Un anno prima della morte, analizzando le misure di velocità della luce eseguite da Fizeau e da Foucault, mostra con un semplice calcolo come l’effetto del moto dell’apparato di misura rispetto all’etere è calcolabile come (v/c)2, quindi è risulta dell’ordine di 10–8: ne deriva l’impossibilità di rivelare il moto della Terra nell’etere attraverso misure di velocità della luce. Questo risultato costituisce un’implicita sfida che sarebbe stata raccolta appena tre anni dopo da Michelson con il celebre esperimento che aprirà la strada alla rivoluzione relativistica di Einstein.
Come ha scritto Silvio Bergia «Al di là delle grandi capacità come fisico e fisico-matematico, Maxwell ebbe una personalità poliedrica e ricca sul piano umano. Poliglotta, ebbe notevoli qualità di disegnatore e, in alcune occasioni, scrisse versi toccanti. Timido e probabilmente non dotato di grande comunicativa, sua caratteristica precipua fu l’onestà intellettuale con la quale attribuì priorità e meriti agli autori che lo avevano preceduto, in particolare a Faraday. Ebbe una profonda consapevolezza dei fondamenti filosofici della fisica e rifletté attentamente sulla rilevanza e sui ruoli rispettivi nella ricerca di: analogia, modello e calcolo».


3.1.5 - Nikola Tesla (1856 – 1943)
Precursore della figura moderna dell’ingegnere elettrotecnico e archetipo romantico dell’inventore geniale e spesso incompreso, Tesla nasce da genitori serbi a Smiljan, nell’odierna Croazia. Il padre era un pastore ortodosso mentre la madre, pur priva di istruzione, era dotata della memoria prodigiosa che si attribuisce anche al figlio. Dopo gli studi all’università di Graz, trova lavoro come ingegnere elettrotecnico a Budapest. È però a Parigi, dove arriva nel 1882, che lavorando per la Continental Edison Company matura le sue idee sui campi magnetici rotanti e immagina un motore che possa sfruttare in modo efficiente dei campi elettrici e magnetici variabili nel tempo.
Trasferitosi negli Stati Uniti (1884), inizia una difficile collaborazione con Thomas A. Edison, che conclude dopo aver dato il suo contributo per migliorare il progetto della dinamo. È un forte sostenitore dell’alimentazione elettrica basata sulla corrente alternata e anche per questo, oltre che per più prosaiche rivendicazioni finanziare, era entrato in collisione con Edison, che auspicava una rete in corrente continua, l’unica in grado di alimentare i motori del tempo.
Nel 1887 approda a New York, dove fonda una società per la costruzione di alternatori e dove realizza il primo motore a induzione a corrente alternata. Dal 1889 Tesla si impegna nello studio e nella realizzazione di diversi tipi di macchine elettriche; in particolare, in questo periodo cominciò lo studio di sistemi e dispositivi per generare e trasformare correnti ad alta frequenza utilizzando circuiti accoppiati a mutua induzione.
Nel 1899 si sposta a Colorado Spring, dove può trovare lo spazio necessario per i suoi esperimenti con l’alta tensione e le alte frequenze. Ancora oggi è fondamentale il suo lavoro sui circuiti che utilizzano trasformatori a risonanza ad alta tensione ed alta frequenza.
Nel Colorado, Tesla conduce esperimenti sulla trasmissione dell’energia a distanza e sull’uso di frequenze molto basse (ELF) per la trasmissione attraverso il suolo.
Nel 1891 aveva ottenuto la nazionalità degli Stati Uniti e in questo paese lo scienziato raccoglierà numerosi riconoscimenti, tra cui diverse lauree honoris causa e la Edison Medal dello IEEE. Altrettanti riconoscimenti giungeranno dalla patria etnica e da quella geografica (Serbia e Croazia), come anche da tutto il resto d’Europa; Tesla sarà però contrariato e afflitto dal mancato riconoscimento del suo ruolo nella paternità della radio.
In merito a questa controversia con Marconi è giusto ricordare che gli apparati realizzati dai due scienziati erano profondamente diversi ed appare molto improbabile che uno dei due abbia copiato dall’altro. Il sistema di radio trasmissione messo a punto da Marconi si basava su onde elettromagnetiche discrete, o impulsi, mentre Tesla si concentrò sin dall’inizio sull’idea di generare un’onda portante continua che potesse trasmettere energia oltre che segnali. La radio avrebbe quindi una paternità da condividere.
Tesla è probabilmente il primo (nel 1900) ad intuire la possibilità di localizzare un oggetto in movimento attraverso gli echi delle onde radio. Certamente è il primo di cui è documentata la descrizione in linea di principio dell’idea di un sistema di radio localizzazione, antesignano del moderno radar, che la tecnologia del tempo non permetteva ancora di concretizzare: all’epoca non esisteva ancora la possibilità di captare in modo efficiente le onde elettromagntiche e lui si impegna di persona nella realizzazione di un rivelatore radio. Aveva progettato e tentato di costruire un rivelatore elettromeccanico di impulsi elettrici; questa impresa riuscirà invece al fisico inglese Ernest Rutherford.
Tesla è tra i primi a capire che ci si potrebbe servire di impulsi elettrici per la trasmissione di segnali a distanza, senza ricorrere ai fili del telegrafo; ha anche l’idea, ancora oggi rincorsa, di trasmettere a distanza una potenza elettrica sufficiente ad alimentare dei dispositivi elettro-meccanici (attuatori). Anche per quanto riguarda l’ambito dei sistemi
di controllo, Tesla è un innovatore: progetta diversi tipi di circuiti regolatori e arriva a realizzare dei sistemi radiocomandati (1898) che incorporano porte logiche. Tante delle sue idee e delle sue invenzioni sono oggi comuni nei motori, negli alimentatori switching e negli inverter. La rete polifase auspicata da Tesla è un caposaldo dell’industria moderna e, negli elettrodomestici, i semplici motori a corrente alternata sono i più diffusi.
Credendo fermamente nei sistemi di trazione elettrica, Tesla si dedicò allo studio di veicoli elettrici e alla realizzazione di prototipi di auto, che cerca addirittura di alimentare attraverso forme di energia elettrica trasmessa a distanza, senza fili, anziché attraverso delle normali batterie. Il problema, ancora oggi irrisolto, della trasmissione dell’energia elettrica attraverso la conversione in onde elettromagnetiche è nell’efficienza del procedimento, inversamente proporzionale alla distanza tra le antenne. Molta energia viene dissipata nella conversione (in trasmissione e in ricezione) e la maggior parte è dispersa sotto forma di emissioni che non raggiungono l’antenna ricevente. Ma i progressi nella fisica delle antenne e il miglioramento dei modelli teorici che descrivono il comportamento delle guide d’onda potrebbero presto dare ragione a Tesla, che ha creduto fino alla fine nella trasmissione a distanza dell’energia.
I suoi ultimi anni sono segnati dall’accentuarsi di comportamenti ossessivi, una sorta di contrappasso per una personalità così geniale. I numerosi brevetti ottenuti non bastano ad impedire che Tesla muoia in povertà e quasi dimenticato a New York. Oggi il suo nome è ricordato dall’unità di misura omonima, il Tesla (T) del Sistema Internazionale (equivalente al Weber al metro quadrato, Wb/m2), con cui si misura l’induzione magnetica (vettore B). È questo, forse, il genere di tributo che uno come lui, che aveva dedicato tanta parte della sua vita allo studio appassionato dei fenomeni elettromagnetici, avrebbe maggiormente apprezzato.
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, Settembre 2008)



3.1.6 - Harry Nyquist (1889 – 1976)
Il suo nome originario era Harry Theodor Nyqvist ma cambierà poi il cognome in una forma più anglosassone. Era nato nel 1889 a Nilsby in Svezia ma nel 1907 Harry emigra negli Stati Uniti, Paese nel quale cui in seguito acquisirà la nazionalità. Frequenta l’Università del North Dakota, mentre insegna in una high school, e consegue il PhD in fisica a Yale. Nel 1917 presenta la sua tesi sull’effetto Stark negli atomi di elio e neon ed è probabile che proprio in questo periodo abbia maturato le prime idee nel campo del rumore elettromagnetico correlato a fenomeni di termodinamica statistica, ma non esistono testimonianze storiche certe in questo senso.
Inizia a lavorare per l’AT&T nel 1917, nel Dipartimento Ricerca & Sviluppo Trasmissioni e nel 1934 passa ai ben noti Bell Telephone Laboratories, dove rimarrà fino al 1954 producendo ben 138 brevetti nell’ambito delle tecnologie di trasmissione telefoniche e televisive.
Verso la fine degli anni venti, in collaborazione con il collega e compagno di studi di Yale John Bertrand Johnson, Nyquist arriva a una forma completa della descrizione del rumore termico e alla teoria sull’interferenza inter-simbolica (ISI). Un aspetto importante per la comprensione della ISI è che ogni canale trasmissivo ha una propria ampiezza di banda, cioè ogni canale agisce comunque in modo che solo una parte delle componenti di un segnale, in base alla loro frequenza, possono passare e ogni impulso che passa viene, per così dire, allargato. La deformazione del segnale non è rilevante se l’ampiezza del canale è molto maggiore dell’ampiezza di banda dello spettro del segnale.
Ma se le due ampiezze sono paragonabili, la forma d’onda del segnale in uscita
dal canale sarà sensibilmente allargata. Questo significa che se si esamina un treno di impulsi consecutivi questi tenderanno a sovrapporsi. Questo fenomeno di interferenza dovuto al rumore termico, è particolarmente importante nell’elettronica digitale dove i dati (simboli codificati in forma binaria) sono descritti da impulsi le cui ampiezze definiscono le cifre uno e zero, con eventuali errori che possono cambiare la natura del dato.
Il teorema di Nyquist, uno dei cardini teorici del campionamento, stabilisce la frequenza minima e le modalità a cui campionare il segnale.
Dal punto di vista dell’automazione, si deve a Nyquist l’enunciazione del criterio di stabilità, rilevante per la teoria del controllo e in generale per l’elettronica quando si ha a che fare con sistemi retro azionati, la cui analisi viene condotta attraverso il metodo grafico da lui stesso introdotto e noto come Diagramma di Nyquist. Tale diagramma è prodotto tracciando, in coordinate polari, la curva che rappresenta l’andamento seguito dalla funzione di trasferimento di un sistema retroazionato al variare della pulsazione (il prodotto della frequenza per 2π); il diagramma, che consente di visualizzare contemporaneamente modulo e fase della funzione di trasferimento, è utile alla comprensione dell’andamento del sistema stesso ed è funzionale all’enunciazione del criterio di Nyquist che afferma che un sistema ad anello chiuso è stabile solo se, nel piano complesso, la curva descritta al variare della pulsazione fra zero e infinito non contiene il punto critico -1+j0.
Nyquist si è distinto tanto dal punto di vista teorico quanto nella creatività tecnologica e sperimentale; è stato un inventore estremamente prolifico ed eclettico e per la sua attività ha ricevuto numerosi premi e riconoscimenti: la Medaglia Stuart Ballantine del Franklin Institute (1960), la Medaglia d’onore dello IEEE (‘60), il Premio Melvin J Kelley (‘61), la Medaglia dei Fondatori NAE (‘69), la Medaglia Rufus Oldenburger ASME (‘75).
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, marzo 2009)


3.1.7 - Harold Stephen Black (1898 – 1983)
Ingegnere elettrico statunitense, nasce a Leominster (Massachusetts): dopo aver conseguito al Worcester Polytechnic Institute il degree e successivamente il B.S.E.E, entra alla Western Electric, il braccio manifatturiero della AT&T. Nel 1925 entra a far parte dei Bell Labs, dove lavora nello staff tecnico fino al suo ritiro.
Per diversi anni il suo impegno è rivolto al tentativo di miglioramento della linearità e della stabilità degli amplificatori; nel 1928 ottiene un brevetto per il cosiddetto “feedforward amplifier”. Nel frattempo, l’anno precedente aveva raggiunto un traguardo destinato a rivoluzionare l’elettronica applicata: l’invenzione di un amplificatore con retroazione negativa. Secondo il suo stesso racconto, l’idea gli era venuta il 2 agosto «come un flash mentre attraversare il fiume Hudson sul Lackawanna Ferry per recarsi al lavoro»;
a quel tempo il quartier generale dei Bell Laboratories era in West Street al 463 a Manhattan, mentre Black viveva nel New Jersey e doveva prendere il traghetto ogni mattina per andare a lavorare. Al momento aveva scritto alcuni appunti sulla sua idea sull’unico foglio che aveva a portata di mano, cioè la copia di quel mattino del New York Times.
Arrivato al laboratorio aveva iniziato subito a preparare l’apparato sperimentale per testare l’idea e nel dicembre successivo uno dei suoi amplificatori retro azionati raggiuse una riduzione di distorsione di circa 100.000 a 1 con un range di frequenza tra 4 e 45 kHz.
È un notevole progresso nell’elettronica, perché tutti i dispositivi elettronici (valvole, transistori bipolari e transistori MOS) sono non lineari e con la retroazione negativa c’è la possibilità di ottenere un’ampia linearità negli amplificatori(in altre parole si riduce la distorsione), sacrificando solo un po’ il guadagno. Una prima importante applicazione dell’amplificatore di Black si ha subito l’anno seguente, con sistema di trasporto telefonico transcontinentale sviluppato dalla AT&T.
Black presenta subito la richiesta di brevetto, che però non arriverà fino al dicembre 1937. Il motivo dell’inusuale ritardo, secondo lui, è dovuto al fatto che l’idea era così contraria all’opinione corrente consolidata che il Patent Office all’inizio era convinto che non potesse funzionare. Anche la lunghezza e il numero di rivendicazioni (claim) annesse al brevetto è insolito: dopo lunga trattativa con l’autore, il brevetto comprenderà 42 pagine di testo, 9 pagine con 126 claims e 33 pagine di figure.
Nel 1934 l’invenzione verrà spiegata e arricchita di particolari nell’articolo “Stabilized feed-back amplifiers”, pubblicato su Electrical Engineering, la rivista dell’American Institute of Electrical Engineers (AIEE); nell’articolo viene menzionato il criterio di stabilità di Harry Nyquist che risolve il problema della instabilità alla quale l’amplificatore retroazionato negativamente potrebbe andare incontro.
Durante la Seconda Guerra Mondiale Black contribuisce alla teoria e alle applicazioni del sistema di trasmissione PCM (Pulse Code Modulation); scriverà anche un libro sulla Modulation Theory (Van Nostrand,1953).
Intanto iniziano ad arrivare i riconoscimenti e gli incarichi prestigiosi. Nel 1941 viene nominato Fellow della AIEE e riceve la Medaglia John Proce Wetherill del Franklin Institute.
Nel 1948 viene eletto Fellow dell’IRE (Institute of Radio Engineers). Nel 1957 riceve la Lamme Medal della AIEE.
Lascia l’attività ai Bell Labs nel 1963 ma per alcuni anni continua ad operare come consulente indipendente. Nel 1981 riceve il Robert H. Goddard Award del WPI *Worcester Polytechnic Institute( e nello stesso anno entra nella National Inventors Hall of Fame.
Il suo tentativo di scrivere un’autobiografia – che avrebbe dovuto intitolarsi Before the ferry docked, ricordando l’episodio dell’Hudson, viene interrotto dalla morte all’età di 85 anni.



3.1.8 - Hendrick Wade Bode (1905 – 1982)
Bode è ricordato soprattutto per il diagramma che ne porta il nome, ma fu un innovatore in diversi settori della scienza, della tecnica e dell’ingegneria. Sono molte le tecnologie oggi utilizzate nei più diversi settori civili e industriali ad essere debitrici nei confronti di Bode, sia da un punto di vista teorico che pratico. Oltre alla teoria del controllo, all’automazione e alla robotica, questo scienziato dai molteplici interessi ha contributo in modo fondamentale anche alla tecnologia delle telecomunicazioni e alla nascente scienza dell’informatica.
Nato a Madison (Wisconsin, Usa) da una famiglia di origine olandese, il giovane Bode si dimostra studente precoce e di talento, conseguendo il diploma di scuola superiore a soli 14 anni. La sua iscrizione all’Università dell’Illinois viene rifiutata solo in virtù della giovane età ed è invece accettata dalla Ohio State University, dove si laureerà in matematica e lavorerà per un anno come assistente.
Bode non sfugge all’attenzione di quella fucina di nuove tecnologie e di cervelli che sono i Bell Laboratories, che lo assumono nel 1926 e ne sponsorizzano la prosecuzione degli studi, finanziando il Ph.D. in Fisica che Bode consegue nel 1935 presso la Columbia University. Assunto dai Bell Labs di New York, si occupa di progettazione di filtri ed equalizzatori elettronici. Nel 1929 passa al Gruppo di Ricerca Matematica e il suo lavoro sui sistemi di controllo retroazionati porta nuovi strumenti pratici e teorici nello studio della stabilità. Nel 1938 lo scienziato elabora quello che diverrà noto come Diagramma di Bode per la rappresentazione grafica della risposta in frequenza, ma è soltanto una delle eredità da lui lasciate all’automazione. Il diagramma permette di evidenziare, per mezzo di due piani cartesiani, l’andamento della fase e dell’ampiezza in modo da rendere immediatamente visibile la risposta del sistema in base alla frequenza, permettendo così di studiare la stabilità di un sistema retroazionato.
All’inizio della Seconda Guerra mondiale Bode è assegnato al National Defense Research Committee (NDRC), l’organizzazione creata dal governo americano per lo sviluppo e il coordinamento della ricerca durante la guerra. Bode fa parte della sezione D 2 dell’NDRC presso i Bell Labs, impegnata nel Progetto Director, un sistema di puntamento automatico in grado di controllare una batteria contraerea. Il Director è in tutto e per tutto un robot in senso moderno, con i suoi sensori, il sistema di controllo e gli attuatori; il sistema di puntamento elabora i dati di velocità e di traiettoria del bersaglio, prevedendone la posizione anche in base all’analisi statistica, tenendo conto della dinamica del bersaglio e di eventuali fattori di correzione. Questi calcoli devono essere svolti in automatico (con una memoria meccanica) e in tempo reale consentendo l’intercettazione del bersaglio. Il sistema di controllo comanda in automatico gli attuatori, elettrici e idraulici, del puntamento radar e del posizionamento delle batterie contraeree; il segnale radar viene captato da un ricevitore a terra connesso al sistema di controllo retroazionato dell’artiglieria, un antesignano delle odierne connessioni dati di tipo wireless.
Da questi sistemi di calcolo automatici per il puntamento e dai sistemi di decodifica crittografica nati nella seconda guerra mondiale per esigenze belliche, vedranno la luce la scienza informatica, gli odierni computer e la moderna automazione.
Nel 1945 Bode pubblica il suo libro Network Analysis and Feedback Amplifier Design, considerato ancora oggi un classico e per anni utilizzato come testo di riferimento nell’elettronica delle telecomunicazioni.
Bode, che nel 1969 ha ricevuto la Medaglia Edison dello IEEE, ha contribuito in modo notevole alla letteratura scientifica e tecnica con numerosi articoli ed è stato membro di diverse associazioni tecnico-scientifiche.
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, maggio 2009)


3.1.9 - John Ziegler (1909-1997) e Nathaniel Nichols (1914-1997)
John Ziegler e Nathaniel Nichols sono senza dubbio da considerare due personaggi di primaria importanza nel campo dell’automazione, della misura e del controllo. In primo luogo a Ziegler e a Nichols si deve l’ideazione di alcuni dei metodi di regolazione tra i più semplici ed efficaci impiegati nei sistemi di controllo retroazionati. Ma la collaborazione tra Ziegler e Nichols rappresenta anche il prototipo del modo di operare di una squadra di ricercatori che si applica ad un problema ingegneristico per risolverlo in maniera efficace. Nell’ambito della loro collaborazione, l’esperienza pratica e la forte competenza in ambito industriale di Ziegler ha trovato nel valido supporto teorico e nelle capacità matematiche di Nichols una risposta precisa ed applicabile ad impellenti istanze produttive.
Ziegler nasce a Portland, nell’Oregon. Rimasto presto orfano di madre, viene allevato dalla zia e dalla nonna. Nonostante le difficoltà familiari e i disastrosi effetti della grande depressione economica del 1929 Ziegler riesce a frequentare il college e a laurearsi in ingegneria chimica all’Università di Washington nel 1933. Pochi anni dopo, nel 1936, anche il più giovane Nathaniel Nichols si laurea alla Central Michigan University. L’anno seguente Nichols consegue il dottorato in fisica alla University of Michigan.
Si tratta di anni molto difficili per l’economia americana e mondiale, ma Ziegler è presto attivo nel mondo industriale e, negli anni ‘30, è impiegato come disegnatore per un’azienda di Seattle che opera nella lavorazione del rame. Poi, con la fine del proibizionismo, Ziegler lavora per una distilleria di liquori di alta qualità, maturando un’esperienza diretta dell’industria di processo che in seguito gli sarà preziosa. Infine Ziegler viene assunto dalla Taylor Instruments di Roechester (NY) dove rimarrà per 36 anni. Il lavoro di Ziegler alla Taylor Instruments prevedeva che si determinassero le procedure di regolazione dei
controllori PID utilizzando dei sistemi grafici, con la lentezza e l’approssimazione che ne consegue. Il metodo in base al quale si effettuava la taratura era basato su una procedura empirica che procedeva per tentativi. Ziegler si rende presto conto della necessità di un approccio analitico al problema della regolazione e della taratura dei controlli. Con l’arrivo di Nichols alla Taylor Instruments, forti della preparazione matematica e fisica del nuovo assunto e dell’esperienza industriale di Ziegler, i due studiosi cominciano una proficua collaborazione che, nel 1942, conduce all’ideazione del metodo di taratura dei parametri di controllo dei PID che porta il loro nome.
Dalla pratica industriale risulta evidente che non esiste un metodo unico di taratura di un regolatore PID valido per qualsiasi tipo di processo e anche nel caso di Ziegler e Nichols è più corretto parlare di diversi metodi adatti a diversi tipi di processo. Nel primo caso, il metodo di Ziegler e Nichols consiste in una procedura basata sullo studio della risposta allo scalino, particolarmente adatta al controllo di processi termici, dove il trasferimento del calore genera un ritardo iniziale (lo scalino della risposta) e non sono presenti oscillazioni. Il secondo metodo messo a punto da Ziegler e Nichols si basa sulla determinazione di un punto della risposta in frequenza. In questo secondo metodo di regolazione viene prima utilizzato un controllore proporzionale con basso guadagno, per calcolare le grandezze empiriche che serviranno a tarare la legge di controllo del PID.
Entrambi i sistemi presentano il notevole vantaggio di basarsi su una procedura chiara, fondata su relazioni analitiche e parametri empirici, che non comporta la necessità di elaborare un complesso modello matematico. In un articolo comparso su Asme Transactions (Vol. 64, pag. 759, 1942), organo della Società Americana degli Ingegneri Meccanici, Ziegler e Nichols spiegano l’insieme di parametri e il metodo di approssimazione alla regolazione ottima che avevano realizzato.
Anche se la diffusione dei moderni controlli digitali, con la loro notevole capacità di calcolo, ha permesso l’introduzione di sofisticati sistemi di regolazione; il metodo e le procedure realizzati Ziegler e Nichols rimangono tra i sistemi più utilizzati e più apprezzati, per semplicità ed efficacia, nell’industria. (da un articolo di Jacopo di Blasio,
Automazione e Strumentazione, marzo 2010)


3.1.10 - Richarde (Dick) Morley
L’uomo che maggiormente ha rivoluzionato la tecnica di automazione negli ultimi decenni è cresciuto in una fattoria nel Massachussets. La passione per la scienza applicata lo portò a frequentare il MIT (benché sconsigliato a farlo dai suoi professori alla high school) e a collezionare, dai primi anni ‘60 ai giorni nostri, una serie impressionante di successi in campo industriale.
Morley è titolare di circa 20 brevetti scientifici, autore di centinaia di pubblicazioni, consulente industriale, imprenditore, fondatore, presidente e consigliere di alcune decine di aziende (tra cui Modicon), conferenziere, pluripremiato membro di società accademiche e scientifiche (tra cui ISA, IEEE, ASHRAE, NCMS, MIT Club). Un uomo insomma che sfugge a giudizi sommari. È stato un privilegio poter ripercorrere con Dick Morley le tappe salienti della nascita del primo PLC.
Mister Morley, da circa 30 anni il PLC è il dispositivo fondamentale nella maggior parte dei sistemi di automazione. Quando nel 1968 lei e il suo staff di Modicon eravate intenti a realizzare il primo PLC per General Motors eravate consapevoli che stavate mettendo a punto un dispositivo “rivoluzionario” per lo sviluppo della moderna industria?
Questo è un punto fondamentale. In realtà non è del tutto corretto dire che iniziammo a produrre il PLC per General Motors nel 1968. L’idea di fondo era di realizzare un prodotto “riutilizzabile”, in grado di sottrarre me stesso alle attività ripetitive di progettazione e di personalizzazione ogni qual volta un cliente ci affidava un nuovo incarico.
Ciò premesso non eravamo consapevoli che stavamo progettando un dispositivo tanto “rivoluzionario” per l’industria moderna. Eravamo consapevoli che ci serviva una sorta di “scatola” basata sui relè, facilmente programmabile dagli utenti.
Come nacque il nome PLC?
Il nome PLC non fu una nostra idea. Noi lo chiamammo PC: Programmable Controller. Fu Allen Bradley negli anni seguenti a proporre con successo il nome PLC per quella classe di dispositivi. Come è noto il termine PC, da noi inizialmente adottato, finì poi con l’indicare il Personal Computer.
Quanto durarono le attività di progettazione e sviluppo del vostro PLC e come erano organizzate?
Difficile dire quanto durarono. A dire il vero ancora oggi sono coinvolto nello sviluppo di PLC, seppure superficialmente. Le attività dei primi anni erano organizzate da un piccolo gruppo di lavoro. Per onestà va detto che anche altre persone erano coinvolte nello sviluppo di PLC ed è per questo che preferisco essere chiamato il “padre” del PLC piuttosto che l’inventore. Per quello che ricordo di quel periodo, dovrei dire che per circa un anno fummo principalmente dei “venditori” di schede di programmazione.
A quali impieghi era rivolto il primo PLC e in che direzione lei e il suo gruppo di lavoro vi muoveste dopo le prime applicazioni?
La prima applicazione fu il controllo numerico. Un aneddoto interessante è che quando lo portammo nello stabilimento della General Motors lo caricammo nel bagaglio della mia vecchia Pontiac. Quando lo aprimmo i tecnici lo guardarono e si misero a ridere. Dissero: “È solo un altro pezzo di metallo colorato”. Con questo intendevano sottolineare che il punto di vista del costruttore o del gestore di impianto è diverso da quello del tecnico elettronico. All’epoca comunque le tradizionali soluzioni di controllo numerico non si vendevano, perciò proponemmo e decidemmo di rimpiazzare i quadri a relè. Quando ci presentammo alle prime prove di funzionamento alla presenza di 3 o 4 responsabili di General Motors, eravamo estremamente preoccupati. Alla fine fummo piacevolmente sorpresi dall’esito delle prove (mio padre ripeteva spesso che è meglio essere fortunati che bravi). I successivi miglioramenti che portammo al PLC furono più di tipo software (sistemi di backup dei programmi, sviluppo di blocchi funzione) che hardware (relè, funzionalità I/O). Il metodo di programmazione originale che mettemmo a punto (logica a contatti) derivava da una simbologia elettrica di origine tedesca. Dopodiché puntammo con decisione su una nuova generazione di prodotti. Dovevamo assumere specialisti di software, ingegneri meccanici e, soprattutto, esperti di marketing. Il marketing fu un elemento chiave del successo del PLC.
Torniamo per un attimo alla programmazione. Lei e il suo staff foste i primi a trasporre la logica cablata dei quadri a relè in quella a contatti. In che misura gli attuali standard di programmazione (lista istruzioni, ladder logic, testo strutturato, function block ecc.) derivano dal vostro progetto originario?
Questa è una domanda interessante. In quel periodo mi occupavo di programmazione di macchine utensili. Furono i nostri colleghi disegnatori a dare forma alla programmazione in logica a contatti. Anche il nome “Ladder Logic” lo diedero loro. In pratica si disegnavano su un grande foglio di carta tutti i contatti a relè dei quadri cablati. Tempo dopo venni a sapere che fummo i primi a trasferire la tradizionale logica a relè di origine tedesca – opportunamente scalata e semplificata – in un ambito di programmazione
industriale vera e propria. Concettualmente la programmazione ladder logic coincide con quella cablata a relè. Non si parlava all’epoca di testo strutturato, lista istruzioni e diagramma a blocchi funzionali. D’altronde il mio approccio era semplicemente quello del costruttore / gestore di macchine. Fummo comunque i primi a implementare non solo la logica a contatti, ma anche a inserirvi dentro i blocchi funzione che venivano strutturati come autonomi oggetti “ingresso / uscita”. Non adottavamo linguaggi di tipo flow chart, anche se poi usavamo tali blocchi per realizzare diagrammi più complessi.
Può descriverci in breve la struttura hardware del primo PLC?
L’architettura hardware del primo controllore programmabile consisteva di tre elementi fondamentali: un processore, un blocco di memoria e i blocchi I/O. Eravamo consapevoli dell’importanza del processore. Lo chiamavamo infatti “stunt box” (ndr scatola magica). Riuscimmo a sfruttarlo per realizzare l’accelerazione hardware real-time dell’algoritmo, sopperendo anche ad alcune limitazioni dei relè. Dopodiché per far funzionare la logica a contatti ci occorrevano un sistema di contenimento, la memoria e gli I/O. Il sistema di alimentazione, il backplane e i connettori erano a disposizione, ma emergevano problematiche termiche affatto trascurabili. I vari elementi del sistema erano separati da alcune schede prive di circuiteria (semplicemente ricoperte di rame), connesse termicamente con l’esterno. Potevano captare la temperatura ma non la radiazione di calore dagli elementi vicini. L’alimentazione operava con variazioni controllate da 0 a 240 V. Non lavorava a 0 V, ovviamente, ma il dispositivo doveva costantemente fermarsi. Dovevamo risolvere questo problema. L’idea vincente fu di forzare
un blocco ogni 10-15 ms e ripartire. La tecnica consisteva nel fare la scansione della logica a contatti sempre in un tempo inferiore rispetto al ciclo dell’alimentatore. Ogni volta che l’alimentazione si bloccava, facevamo ripartire una nuova scansione del software.
Il processo veniva inizializzato nella memoria, usando il processore per elaborare i cambiamenti, ricostruire un nuovo valore di stato, memorizzarlo e alimentarlo. Così il processo forniva una serie di valori di stato e cambiamenti in modo continuo. Non si verificavano interruzioni o variazioni del tempo di scansione. La struttura interna al controllore poteva salvare i programmi e alcuni dati, ma tutto doveva svolgersi in 10-15 ms, il tempo di ciclo del processo.
Cosa può dirci sul livello di affidabilità e su eventuali sistemi di diagnostica a bordo dei primi controllori?
Non c’erano sistemi di debug e diagnostica veri e propri. Tutto dipendeva dalla ladder logic. Il sistema di watchdog consisteva una luce lampeggiante, o abbagliante per meglio dire. L’affidabilità delle prime macchine coincideva con quella dei relè, con una vita media di 100.000 ore a temperature (da -40 a +70 °C) e range elettrici estremi e spesso fuori controllo rispetto agli standard attuali. È la stessa filosofia che a mio parere vale per le automobili. A me non interessa averne una garantita a vita. Ne voglio una che funzioni sempre. Per aumentare l’affidabilità – nel controllore – usavamo core memory originali. Si trattava di memorie lente e di grandi dimensioni. Tuttavia queste caratteristiche, in accordo al teorema di Shannon, permettevano una significativa riduzione del disturbo dipendente dalla potenza per bit. In definitiva progettammo il controllore tenendo conto del punto di vista della fisica, della meccanica quantistica, delle dinamiche termiche e della teoria dell’informazione di Shannon.
Che situazione c’era in quegli anni nella ricerca industriale rapportata alla situazione attuale?
La ricerca e lo sviluppo nell’industria, negli anni ‘60 e ‘70, era molto più significativa e consolidata di oggi. Attualmente, in rapporto agli investimenti di capitali e all’innovazione finanziaria, la manifattura ha un ruolo secondario. Voglio dire che in pochi vogliono investire nell’innovazione industriale perché non ci sono grosse torte da spartire. Inoltre l’innovazione sta creando problemi. L’ingegneria dovrebbe risolverli, ma a dire il vero non stiamo risolvendo specifici, piuttosto stiamo rendendo la vita più facile.
Qual è la sua opinione riguardo ad altri soggetti (uomini o aziende) che si attribuiscono, seppure in forme diverse, la primogenitura di sistemi di tipo PLC?
Alla fine degli anni ‘60 in qualche modo il PLC “aspettava” di essere progettato. Esisteva molta letteratura scientifica che avrebbe potuto indurre a realizzare velocemente un dispositivo simile, ma la realtà è che non accadde. Ho vissuto situazioni simili anche con altre tecnologie riconducibili al mio lavoro, come nel caso del sistema antibloccaggio dei freni ABS. Il punto è che spesso si fanno affermazioni che non tengono conto dei dati di fatto. Questo atteggiamento è alla base delle guerre di religione. Se qualcuno vuole credere che le cose andarono in modo diverso non sarò certo io a fargli cambiare
idea. Tornando al PLC quello che noi concepimmo non fu un pezzo di hardware, ma un nuovo un approccio all’automazione di fabbrica. Il punto fondamentale è che un PLC non coincide né può derivare da un linguaggio di programmazione, il quale ovviamente è in sé indipendente dall’applicazione. Per fare un esempio un elaboratore di testi non è un dispositivo, bensì un’applicazione che consente di scrivere. Questo è l’aspetto del PLC più difficile da comprendere ed è alla base del fatto che attualmente 3 grandi
costruttori dominano il mercato. È passata l’idea che i sistemi di elaborazione ruotino intorno al sistema operativo anziché all’applicazione. Il punto fondamentale del nostro lavoro di progettazione e realizzazione del PLC fu che noi ottimizzammo l’hardware intorno all’applicazione. Funzionava velocemente ed era straordinariamente hard real time. I primi controllori furono concepiti per gli utilizzatori che conoscevano il processo da controllare, non per gli esperti di software che pensano di sapere quello di cui hai bisogno. Questa è una differenza fondamentale.
Negli ultimi anni si sono affermate soluzioni PC-based (SoftPLC, PAC, PLC-HMI integrati), PLC dedicati (ad esempio nei settori safety, motion, building) e più in generale controllori fortemente aperti alle nuove tecnologie ICT. Cosa ne pensa di queste evoluzioni e come si immagina lo scenario dei PLC in futuro?
Si tratta per lo più di soluzioni hardware. Partono dall’idea che la soluzione crei la domanda. Ad ogni modo credo che i tradizionali controllori programmabili sono e resteranno gli indiscussi esecutori del processo. I dispositivi di nuova generazione possono rappresentarne l’intelligenza, ma la questione dell’hard real time è un problema che resta sullo sfondo. Dobbiamo vedere la cosa dal punto di vista dell’utilizzatore, rendere il lavoro semplice e ridurre il time-to-market. Uno dei successi di cui io e il mio team
fummo più orgogliosi fu quello di ridurre il tempo di rotazione di magazzino di Toyota da 6/9 mesi a 6/9 settimane. Lo facemmo senza adattare a tutti i costi la nostra soluzione allo logica booleana, agli standard accademici o all’industria del software. La nostra linea d’azione era semplicemente di dare all’utilizzatore gli strumenti di cui aveva bisogno. Il controllo passava poi sotto le sue mani.
Che effetto le fa sapere che il mercato mondiale dei PLC si aggira intorno ai 9 miliardi di dollari e il lavoro di un vasto numero di realtà industriali e di persone ruota intorno a un sistema di cui lei è considerato il padre?
Ne sono molto orgoglioso, soprattutto per il contributo in termini di time-to-market a beneficio di progetti futuri. In molti abbiamo contribuito a sviluppare i fondamenti tecnici e organizzativi della moderna economia industriale. Io stesso sono ancora coinvolto in nuovi progetti e nuove sfide. Purtroppo dobbiamo constatare quanto sia duro rendere attraente la filosofia del manufacturing nell’epoca di YouTube.
(Armando Martin, Automazione e Strumentazione, Aprile 2009)



3.2 - Inventori e imprenditori
3.2.1 - Werner Von Siemens (1816 - 1892)
Werner von Siemens nasce a Lenthe, nei pressi di Hannover, quarto dei 14 figli di una famiglia di mezzadri. Nel 1834 lascia il liceo senza conseguire la laurea per arruolarsi nell’esercito prussiano, come mezzo per acquisire una formazione professionale in ingegneria; il programma triennale presso la Scuola di Artiglieria e Ingegneria a Berlino porrà una solida base per il suo successivo lavoro nel campo dell’ingegneria elettrica.
Nel 1847, Werner progetta un telegrafo con caratteristiche di gran lunga superiori ai dispositivi utilizzati fino ad allora; questa invenzione getta le basi per la società “Telegraphen-Bauanstalt von Siemens & Halske”, che egli fonda a Berlino nell’ottobre 1847 insieme a Johann Georg Halske, un meccanico della locale università. Ben presto l’azienda si impone nel panorama delle tecnologie elettriche, diventandone uno dei leader a livello internazionale.
Oltre alle attività commerciali, Werner von Siemens è intensamente impegnato nella ricerca scientifica. Il suo risultato più importante nel campo dell’ingegneria elettrica arriva nel 1866, quando, sulla base dei lavori di Faraday, scopre il principio dinamoelettrico attuando una svolta nell’utilizzo dell’elettricità come fonte di energia. Le innovazioni della Siemens in questo campo apriranno ulteriori nuove possibilità applicative per l’energia elettrica: primo fra tutte il treno a trazione elettrica, presentato alla grande Fiera Industriale di Berlino del 1879; e poi il primo impianto di illuminazione elettrica per la Kaisergalerie, sempre a Berlino nello stesso anno; come pure come il primo ascensore elettrico a Mannheim nel 1880 e il primo tram elettrico al mondo a Berlino-Lichterfelde nel 1881.
I fratelli Carl, Friedrich e Wilhelm e poi i figli Arnold, Wilhelm e Carl Friedrich contribuiranno efficacemente allo sviluppo della società Siemens.
Oltre a distinguersi personalmente per le sue innovazioni tecnologiche e per gli audaci progetti imprenditoriali, Werner von Siemens si guadagna anche la reputazione di imprenditore progressista, attraverso numerose iniziative di politica sociale molto avanti rispetto ai tempi. Nel 1874, per esempio, stabilisce una pensione, un fondo per vedove e per orfani, che rappresenta l’origine dei piani pensionistici dei dipendenti di oggi; tutto ciò più di dieci anni prima della introduzione della pensione obbligatoria e del sistema di indennità e reversibilità instaurato in Germania.
Oltre alle attività scientifiche e imprenditoriali, Werner von Siemens sostiene anche cause politiche. Come membro del German Progress Party diventa delegato al Landtag prussiano dal 1862 al1866. Come avvocato per la tutela brevettuale, viene assegnato all’Ufficio Brevetti Imperiale nel 1877. Nel 1879, è uno dei membri fondatori della Electrical Engineering Association, che promuoverà l’istituzione di cattedre di ingegneria elettrica presso gli istituti tecnici.
Come riconoscimento per i suoi contributi alla scienza e alla società, nel corso della sua vita riceverà numerosi premi, tra cui un dottorato onorario dal Dipartimento di Filosofia dell’Università di Berlino (1860), la partecipazione alla Accademia Prussiana delle Scienze di Berlino (1873) e la nomina a Cavaliere dell’Ordine “Pour le Mérite für Wissenschaften und Künste” (1886). Infine nel 1888, viene nominato cavaliere dal Kaiser Federico III.
Al suo nome verrà associata l’unità di misura della conduttanza elettrica (simbolo S) nel Sistema Internazionale di unità di misura.



3.2.2 - Robert Bosch (1861 - 1942)
Robert Bosch nasce ad Albeck, vicino a Ulm, nella Germania meridionale; i suoi genitori possiedono una fattoria e gestiscono una locanda; è l’undicesimo di dodici figli. Successivamente la famiglia si trasferisce a Ulm, dove Robert studia tecnica meccanica e inizia un apprendistato come meccanico di precisione. È molto insoddisfatto di questa esperienza ed è anche per questo che più tardi attribuirà tanta importanza al fatto di fornire agli apprendisti una formazione solida e approfondita.
Nel 1884 Robert parte per un viaggio che lo porterà negli Stati Uniti e in Inghilterra. È ancora molto giovane quando la sua preparazione e la sua intuizione gli fanno capire bene il grande potenziale inespresso dall’elettrotecnica del tempo. E così, torna a Stoccarda nel 1886 e apre la sua azienda, una piccola officina con due soli collaboratori: la “Workshop for Precision Mechanics and Electrical Engineering”. Nel 1890 acquista il suo primo … veicolo aziendale: una bicicletta di sicurezza inglese piuttosto rivoluzionaria per quell’epoca.
Poco tempo prima il giovane imprenditore si era sposato: avrà quattro figli dalla moglie Anna Kayser, ma l’ultima bambina muore ad appena un anno e nel 1921 morirà di un male incurabile anche il primogenito; a questa morte segue la rottura del matrimonio. Dopo il divorzio dalla prima moglie, nel 1928 si sposerà per la seconda volta, con Margarete Wörz dalla quale avrà altri due figli: Robert ed Eva.
Nel frattempo l’azienda continua a crescere e ben presto si afferma a livello mondiale con le sue innovazioni, di grande impatto in tanti settori. La sua prima intuizione, l’accensione a bassa tensione per i veicoli a motore, resta una pietra miliare, superata, sempre da lui, nel 1902 dal sistema di accensione con magnete a alta tensione con candela, che lo fa affermare a livello mondiale.
Il primo ufficio all’estero viene aperto a Londra, nel 1898, gettando le basi per il futuro successo internazionale dell’azienda. Nel 1901, Bosch aprì il primo vero stabilimento a Stoccarda: si tratta di un avveniristico edificio industriale, con aree di produzione luminose e ben aerate. Nel 1905 apre la prima fabbrica all’estero, la Compagnie des Magnétos Simms-Bosch a Parigi. Nel 1906, introduce la giornata lavorativa di otto ore che era necessaria per potere organizzare il lavoro su due turni e che, allo stesso tempo, offre migliori condizioni di lavoro ai collaboratori.
Allo scoppiò la prima guerra mondiale Bosch dona i proventi della produzione bellica a favore di opere benefiche; l’impianto di Feuerbach, vicino a Stoccarda, viene trasformato in un ospedale.
Nel dopoguerra, di fronte alla crisi dell’industria automobilistica del 1925, Bosch decide di esplorare nuovi settori; inizia anche una serie di acquisizioni, come quella della Junkers produttrice di scaldabagni, primo nucleo della successiva divisione termotecnica di Bosch. Nel 1932 a Lipsia lancia il primo martello pneumatico e nel 1933 propone il suo modello di frigorifero elettrico.
Oltre alle caratteristiche di innovatore e imprenditore, Bosch offre una grande testimonianza sul lato umano. Fedele ai suoi princìpi, nel 1936 sovvenziona la costruzione di un ospedale a Stoccarda, che ancor oggi porta il suo nome. Si prodiga in molte altre opere di beneficienza e, per evitare che l’azienda cambi direzione in futuro, scrive le linee guida per i suoi discendenti. Dice che per assicurare il raggiungimento di obiettivi a lungo termine, l’azienda deve rimanere finanziariamente indipendente al fine di preservare la libertà imprenditoriale. Bosch si preoccupa che l’azienda continui a essere una benefattrice verso i meno abbienti: nel suo testamento stabilisce che la maggior parte dei dividendi della società sia utilizzata per cause caritatevoli e senza scopo di lucro e che la sua famiglia riceva soltanto denaro sufficiente per vivere in maniera adeguata e dignitosa.
Queste volontà vengono attuate nel 1964 con la nascita della Fondazione Robert Bosch, che, oggi, controlla il 92% del capitale. Le attività benefiche della Fondazione si sviluppano in diversi campi: scienza, salute, relazioni internazionali, educazione, società e cultura. I relativi progetti vengono finanziati dalla Fondazione, che, finora, ha investito, dal 1964 a oggi, quasi mille milioni di euro.




3.2.3 - Lynde Bradley (1878 – 1942)
Nel 1893 un giovane ragazzo che lavorava presso un’officina di Milwaukee, Lynde Bradley, studiando con interesse un testo preso a prestito in biblioteca, Electricity for Engineers di Charles Desmond, ha un’idea brillante che lo porta a inventare un reostato a compressione che viene utilizzato per il controllo del movimento delle gru. Dopo alcuni tentativi di avviare un’attività in proprio, Lynde incontra Stanton Allen che gli dà fiducia e gli propone di finanziare l’attività di ricerca per sviluppare un controllore elettrico sulla base del suo reostato. Nel 1903, col supporto economico diAllen, Lynde e il fratello Harry avviano la Compression Rheostat Company: è l’inizio di una storia aziendale di successo che porterà fino alla odierna Rockwell Automation.
Già l’anno successivo uno dei controllori per gru fabbricati dalla nuova società viene esposto alla Fiera Internazionale di St. Louis. Nel 1909 la società assume la denominazione di Allen Bradley, con Allen Presidente, Lynde Bradley vice presidente e tesoriere, Harry Bradley segretario e sovraintendente. Cinque anni dopo la Allen Bradley aprirà un ufficio commerciale a New York.
Sotto la guida dei fratelli Bradley (Allen muore nel 1916) per l’azienda si apre un periodo di crescita e di innovazioni: molti tecnici e progettisti si uniscono ai fondatori per dar vita a una serie di novità tecnologiche, tra le quali si possono citare i primi avviatori meccanoelettrici per i motori asincroni trifase, un tipo di apparecchi elettrici in forte crescita; una serie di tester per batterie d’automobile; una linea completa di caricabatteria per veicoli elettrici. Tra il 1912 e il 1915 Lynde lavora a tempo pieno allo sviluppo prodotti e, oltre a un insieme di nuove apparecchiature, ottiene sette brevetti nel campo dei controllori elettrici, dei trasmettitori telefonici, dei processi di rivestimento interno.
Le due invenzioni che determinano la diffusa popolarità del marchio Allen Bradley arrivano negli anni ’20. Nel 1922 inizia la produzione di un reostato a compressione miniaturizzato da utilizzare negli apparecchi radio come regolatore fine del volume; e nel 1925, viene inventato un sistema a pedale per il controllo della velocità delle macchine da cucire; ben presto, tutte le aziende statunitensi che costruiscono radio diventano clienti Allen Bradley; mentre, grazie all’applicazione da parte della Singer, del pedale come standard su tutte le proprie macchine da cucire, per decenni milioni di tali macchine in tutto il mondo hanno funzionato con un controllo Allen Bradley.
Superato il periodo della grande depressione, Lynde continua a sospingere l’azienda verso continue innovazioni soprattutto nel campo del controllo dei motori e delle apparecchiature elettriche. L’introduzione nel 1935 delle resistenze fisse a composizione di carbone vede l’azienda di Milwakee in prima fila, con inoltre la messa a punto della codifica visiva del valore della resistenza basata sulla colorazione di anelli raffigurati sul corpo del resistore stesso, in seguito universalmente adottata dai costruttori di tutto il mondo.
L’attenzione alle condizioni di lavoro e all’efficienza produttiva, porta i fratelli Bradley a stimolare i propri ingegneri a ideare sistemi di produzione automatizzati: quelli messi a punto in questi anni sono all’avanguardia per i tempi e consentono alla Allen Bradley di produrre in automatico i tanto richiesti componenti per le radio.
Anche la vita privata di Lynde è totalmente coinvolta nell’avventura imprenditoriale.
Nel 1912 aveva sposato una segretaria dell’azienda, Caroline Doll, senza avere figli.
Si sposerà di nuovo nel 1926 con Margaret “Peg” Blakney Sullivan, molto attiva nelle iniziative culturali e filantropiche, e avranno una figlia.
Negli ultimi anni Lynde segue da vicino gli sviluppi della nascente era elettronica e prepara il terreno alla successiva crescita dell’azienda che fornirà i propri componenti ai futuri sistemi di telecomunicazione, ai sistemi informatici, all’industria spaziale per arrivare nel 1970 a coniare come marchio registrato l’acronimo PLC (Programmable Logic Control) dando il via all’era della moderna automazione industriale.
3.2.4 - Charles E. L. Brown (1863 - 1924) e Walter Boveri (1865 – 1924)



Charles Eugene Lancelot Brown nasce in Svizzera ed è figlio di un apprezzato ingegnere. Dopo un periodo di apprendistato, lavora alla organizzato del reparto elettrico nella stazione di Basilea e nel 1884, all’età di 20 anni, entrò alla Maschinenfabrik Oerlikon dove, due anni dopo, diviene direttore del reparto elettrico. Nel 1885 concepisce e progetta un tipo di avvolgimento delle armatura per le macchine rotanti ancor oggi comunemente utilizzato.
L’anno seguente inizia a occuparsi di trasmissione di corrente continua ad alta tensione, sviluppando diverse caratteristiche innovative delle attrezzature. Per quanto riguarda la macchine in corrente alternata, nel 1889 progetta alcuni dei primi trasformatori con isolamento in olio e realizza i generatori adeguati alle nuove esigenze. Nel 1891, con la AEG, collabora a un importante passo avanti nella trasmissione di energia, presentando al Salone dell’Elettrotecnica di Francoforte il progetto di una linea di oltre 175 km.
Nello stesso anno fonda a Baden (Svizzera) insieme a Walter Boveri la società Brown, Boveri & Cie. (BBC, poi Asea Brown Boveri, l’attuale ABB ); Brown si occupa dello sviluppo degli alternatori a campo magnetico rotante. L’anno seguente avvia e segue direttamente la produzione di motori asincroni. Nei successivi dieci anni ottiene per la BBC circa 30 brevetti: tra questi ci sono invenzioni celebri come l’interruttore a olio (1898) e il rotore cilindrico per turbogeneratori (1901); l’innovazione che più frequentemente è collegata al suo nome è l’introduzione di macchine a bassa velocità. Altri importanti suoi lavori originali riguardano i sistemi di controllo motore e lo sviluppo della turbina a vapore.
Nel frattempo nel 1900 era diventato presidente del consiglio d’amministrazione di Brown, Boveri and Company, e mantiene questa posizione fino al 1911: in quest’anno avviene la rottura tra i due fondatori e Brown si ritira completamente dalla vita pubblica trascorso i suoi ultimi anni nel Ticino, a Montagnola.
Per la sua genialità tecnica riceverà diversi riconoscimenti, tra i quali un dottorato honoris causa dall’università tecnica di Karlsruhe e la nomina a membro onorario della Ieee.
Walter Boveri, di due anni più giovane, viene da una famiglia originaria della Savoia, stabilitasi nel 1835 a Bamberga (Germania). Walter è terzo di quattro figli del medico Theodor Boveri; un altro fratello diventerà un noto biologo. A 17 anni Walter entra nella reale scuola di ingegneria meccanica a Norimberga e dopo aver concluso gli studi nel 1885 si trasferisce in Svizzera. Qui inizia a lavorare come volontario e poi come capo montatore per gli impianti elettrici nella stessa fabbrica meccanica Oerlikon dove Brown diventerà direttore tecnico.
Si associa a Brown quando questi pensa di fondare una ditta propria e collabora nella difficile ricerca di investitori. Nel dicembre 1890 Brown e Boveri stipulano un contratto di associazione e tre mesi più tardi scelgono Baden come sede societaria per la BBC, fondata nell’ottobre seguente grazie anche a un finanziamento del suocero di Boveri, Conrad Baumann, industriale della seta zurighese.
Mentre Brown si occupa degli aspetti tecnici dell’impresa, Boveri, sebbene tecnicamente ugualmente dotato, assume sempre più il ruolo del leader commerciale. Suo è il merito dell’ampliamento, a partire dal 1900, della BBC fino a diventare un grande gruppo internazionale. Nel 1894, parallelamente alla costruzione della centrale elettrica di Ruppoldingen, Boveri fonda la Elektrizitätswerke Olten-Aarburg, che nel 1936 verrà acquisita dalla Atel. Convinto che per la progettazione, il finanziamento e la costruzione di centrali elettriche sia necessaria un’ulteriore società, nel 1895 fonda la Motor AG für angewandte Elektrizität, che in seguito diventerà la Motor-Columbus.
Dopo il ritiro di Brown, dal 1911 al 1924 Boveri è presidente del consiglio di amministrazione della BBC; è inoltre presidente di diverse società elettriche e durante la Prima guerra mondiale presiede la Société suisse de surveillance économique; i suoi sforzi per l’elettrificazione della rete ferroviaria gli guadagnano anche un mandato nel consiglio di amministrazione delle Ferrovie Svizzere. Quale presidente di diversi comitati cittadini, è anche attivo anche sulla scena politica locale del Baden. In riconoscimento dei suoi meriti tecnici, nel 1916 l’ETH di Zurigo gli conferisce la laurea honoris causa.
I suoi figli, Theodor e Walter, opereranno anch’essi nell’azienda con diverse funzioni; mentre il fratello Robert dirigerà per diversi anni l’azienda sussidiaria BBC Mannheim; il figlio di questi, William, vi lavorerà come direttore fino agli anni ‘70.
3.2.5 - Bill Hewlett (1913 - 2001) e David Packard (1912 - 1996)
La storia di Bill Hewlett e David Packard quasi coincide con la storia dei primi 60 anni della Hewlett-Packard, ovvero la HP. Bill e David si conoscono durante una vacanza in montagna nel 1934 e diventano amici fraterni. Entrambi laureati in ingegneria elettrica a Stanford (California), iniziano un’avventura tecnologica e imprenditoriale lavorando part-time nell’ormai famoso garage al 367 di Addison Avenue a Palo Alto (Silicon Valley), diventato un’icona della storia hi-tech tanto da essere iscritto nel National Register of Historic Places. Partono con un finanziamento di 539 dollari e alcune apparecchiature usate e nel 1938 producono il primo strumento realizzato in base agli studi di Hewlett sulla retroazione negativa: un oscillatore audio resistivo-capacitivo, impiegato per testare apparecchiature sonore.
La HP Hewlett-Packard viene ufficialmente fondata il 1 gennaio del 1939, dopo aver tirato a sorte con una moneta per decidere se denominare l’azienda Hewlett-Packard o Packard-Hewlett. La neonata società si pone come missione la produzione e vendita di strumenti di test scientifici; fra i primi clienti c’è Walt Disney, che ne fa uso dell’oscillatore HP 200 nella produzione del film “Fantasia”.
Nel 1940 la HP lascia il garage e si trasferisce in un edificio in affitto a Palo Alto. Nel giro di un decennio la società supera i 2 milioni di dollari di fatturato, arrivando a contare 160 dipendenti. Fin da subito però Bill e Dave decidono che i dipendenti debbano condividere il successo dell’azienda e a Natale distribuiscono a tutti un bonus di 5 dollari e costituendo un fondo per un programma di distribuzione dei profitti.
All’inizio della seconda guerra mondiale Bill si arruola e resterà nell’esercito fino al 1947; in quegli anni Dave condurrà da solo l’azienda; in quel periodo viene costruito il primo edificio di proprietà, con un open space progettato per favorire ogni occasione di stimolo alla creatività. Negli stessi anni la HP entra nel mercato delle microonde, ponendo le basi per una futura leadership nei generatori e analizzatori di segnali.
Nel 1947 avviene l’incorporazione della società HP: Dave è nominato presidente, Bill vice presidente. Nel 1951 Al Bagley, capo della divisione Frequency and Time di HP inventa un misuratore di frequenza ad alta velocità che consente alle stazioni radio di definire accuratamente le frequenze: sarà uno dei prodotti più redditizi nel futuro dell’azienda.
Gli anni ‘50 sono anni di boom per l’area di Palo Alto e di grande crescita per la HP: nel 1956 produce il primo oscilloscopio iniziando la linea di prodotti nel campo del Test and Measurement. Nel 1957 Hewlett-Packard emette le prime azioni e quattro anni dopo entra ufficialmente nel listino della Borsa di New York. Al termine del decennio HP è ormai una società internazionale con uffici a Ginevra ed una fabbrica in Germania (Boeblingen); il tutto accompagnato da un piano industriale di grande rilievo, forte dei 48 milioni di dollari di fatturato raggiunto e dei circa 2.400 addetti. Viene costruita la prima fabbrica nello Stanford Industrial Park di Palo Alto e la HP entra anche nel business degli apparati medicali, acquisendo Sanborn Company.
Nel 1966 arriverà il primo computer (HP 2116A), inizialmente utilizzato per test interni; sarà seguito due anni dopo dal primo calcolatore scientifico da scrivania, il modello 9100, che memorizza programmi su scheda magnetica; e sei anni dopo dall’HP 35, la prima calcolatrice tascabile e dal minicomputer Hp 3000, dedicato a compiti di engineering e ricerca, ma anche all’amministrazione .
Nel 1978 Bill Hewlett lascia la carica di Ceo e dall’anno seguente si occuperà della neonata Hewlett-Packard Foundation. Continua tuttavia a seguire lo sviluppo internazionale dell’azienda e nel 1985 sarà insieme a Dave in Cina a inaugurare la China Hewlett-Packard (CHP), la prima joint venture high-tech in terra cinese.
Nel 1980, nel boom della rivoluzione informatica, arriva il primo personal computer, l’HP-85 e la prima stampante laser: il fatturato raggiunge i 3 miliardi di dollari e l’azienda conta ora oltre 57.000 addetti in tutto il mondo.
Nel 1995 Dave Packard racconta la storia, l’approccio e i successi dell’azienda nel volume The HP Way. HP contribuisce enormemente a forgiare l’informatica moderna e alla morte di Dave, la società è un colosso che fattura quasi 40 miliardi di dollari e conta oltre 100 mila dipendenti; Bill morirà pochi anni dopo, all’età di 87 anni.



3.2.6 - Mario Tieghi (1892-1993)
Mario Tieghi e suo figlio Franco sono una generazione di imprenditori che hanno iniziato, sviluppato e consolidato in circa 70 anni un’ attività di progettazione, produzione e vendita di strumentazione e sistemi di controllo dapprima sul mercato Italiano, poi Europeo e quindi Mondiale.
Mario Tieghi nasce a Ferrara e – dopo una lunga carriera nella Marina Militare Italiana, arrivando al titolo di secondo ufficiale di macchina – fonda nel 1936 a Milano la società “Dott. Ing. Mario Tieghi & C”. Si era laureato in ingegneria meccanica nel 1921 al Politecnico di Milano per poi entrare in aviazione diventando pilota collaudatore dei trimotori e idrovolanti della Caproni.

La prima vera esperienza nel settore della strumentazione avviene assumendo la direzione vendite della austriaca Klinkhoff, che con la Siemens aveva il monopolio in Italia della strumentazione di misura e controllo dei primi impianti industriali.
La strumentazione, le caldaie e le macchine in generale fanno parte del suo bagaglio culturale e per questa ragione avvia la propria società inventando e costruendo apparecchiature adatte a questi impieghi, come strumenti di misura della pressione e della portata o livello. Con i pochi ma determinanti strumenti disponibili e una visione d’avanguardia la Tieghi costruisce, tra i primi in Italia, quadri locali di controllo, di grande impatto per i tempi.


In pochi anni si raggiungono le 20 unità produttive e vengono assunte commesse di rilievo dalla Marina Militare: Mario Tieghi inventa e brevetta un sistema di misura del livello delle caldaie navali e un secondo, chiamato “Teleimmersiometro”, per la misura e indicazione in sala di comando dell’assetto in mare e della stazza della nave.

Nel 1942 lo stabile dell’azienda viene raso al suolo dai bombardamenti e Tieghi decide si spostarsi in luogo più sicuro: la scelta cade sulla riva sinistra del lago di Como, a Lenno. Al termine della guerra con la ripresa degli investimenti nel settore industriale e il primo giacimento di metano nella pianura Padana a Caviaga e Cortemaggiore (Lodi), l’azienda riprende con forza la produzione di una moderna strumentazione soprattutto per la misura di portata del gas e i primi sistemi di controllo semiautomatico delle caldaie.
L’azienda si presenta così nei primi anni ’50 con un nuovo stabilimento che impiega 80 addetti e inizia la collaborazione con un’azienda Inglese di grande prestigio: la George Kent Ltd, che ha nel suo catalogo una strumentazione capace di soddisfare le esigenze del nostro crescente mercato industriale: misure di portata venturimetriche, regolatori-registratori pneumatici, misuratori registratori di temperatura. Questa operazione consente alla Tieghi di ampliare di molto la sua offerta tecnica sul mercato italiano, diventando il primo costruttore nel Paese. Sono cavalli di battaglia due strumenti base del portafoglio della società: il misuratore-indicatore-registratore di portata o livello a vasi differenziali a mercurio (IRC) e il Combustiegrafo, pittoresco nome di uno strumento inventato dall’ingegner Tieghi che consentiva il controllo della qualità della combustione nella caldaia.
Nel decennio 1950-1960 la MarioTieghi vive un periodo di notevole espansione e successi come conseguenza dello sviluppo nazionale dell’industria di base – raffinerie, impianti chimici, estrazione e lavorazione del gas nella pianura Padana, caldaie, impianti di produzione di energia elettrica – e diventa, nonostante la massiccia presenza dei costruttori americani di grande nome, un fornitore di primo piano soprattutto per la misura fiscale di portata del metano sia alla produzione che alla distribuzione, con centraline specifiche.
Avviene in questi anni il passaggio dalla regolazione manuale a quella automatica e la Tieghi entra prepotentemente in questa nuova era del controllo dei processi con quattro prodotti progettati e sviluppati nello stabilimento lariano, che danno un nuovo impulso all’azienda; sono:
■ 1956: regolatore PID-registratore pneumatico, con commutazione auto/mano;
■ 1956: cella differenziale Deltaroid per misure di pressione differenziale a uscita meccanica;
■ 1956: Deltapi serie D, misuratore trasmettitore di pressione differenziale pneumatico, a equilibrio di forze, con membrana di misura doppia in metallo e con protezione ai sovraccarichi, segnale di trasmissione 3-15 psi: primo in Europa;
■ 1958: serie Minimec di strumenti da quadro con ingresso da trasmettitori pneumatici.
Nel 1960 la Kent prende il controllo della Mario Tieghi con il 51% e contestualmente il fondatore cede al figlio Franco la direzione dell’azienda che assume la nuova ragione sociale di Kent Tieghi.
Franco Tieghi e la nuova Kent-Tieghi
Sotto la direzione di Franco Tieghi la nuova Kent-Tieghi, con una forte sinergia con la casa inglese, non solo consolida la presenza sul mercato europeo, ma compie importanti ampliamenti strutturali: una nuova sede commerciale a Milano, un nuovo e consistente reparto di Ricerca e Sviluppo, nato a Milano e poi trasferito a Lenno. Lo stabilimento viene organizzato in modo industriale con direzioni e responsabilità ben definite; vengono inoltre organizzati corsi regolari di istruzione per clienti e viene ampliata una scuola professionale locale (già iniziata negli anni 50’ da Mario Tieghi) che sarà successivamente assorbita dall’Enfapi di Como.


L’attività industriale della Kent Tieghi, dal 1960 al 1990, segue la evoluzione tecnologica delle apparecchiature di controllo, con massicci e crescenti investimenti in Ricerca & Sviluppo e con sempre nuovi strumenti. Si attuano programmi di espansione sia dello stabilimento, che della rete di vendita, che delle tipologie di strumenti; tanto che tra gli anni ’70 e ’80 si può dire che la Kent Tieghi copra a 360° tutto il parco strumenti e sistemi di controllo.
Alcune tappe dal cammino dell’azienda sotto la guida di Franco Tieghi sono qui di seguito sintetizzate.
1965-1975: lancio della nuova serie di strumenti “miniatura” da quadro Flexair; con i componenti base di questo strumento viene anche riprogettata la serie Minimec che assume il nome di Minimec 2.
1965: lancio dei nuovi misuratori trasmettitori Deltapi serie N che sostituisce la serie D: vengono migliorate le prestazioni e ampliata la gamma delle varianti applicative. Per la cronaca lo strumento è ancora in produzione oggi.

1971: vengono prodotti a Lenno i misuratori di portata elettromagnetici Veriflux, di derivazione Kent.
1971-1982: vengono affiancati ai trasmettitori pneumatici i nuovi trasmettitori elettronici di pressione serie E con segnale 4-20 mA.
1974-1980: viene avviata a Lenno la produzione completa (meccanica ed elettronica) dei primi regolatori da quadro con elettronica analogica serie Flexel, che si affiancano alla serie pneumatica Flexair.
1973: viene sviluppata una nuova serie di regolatori pneumatici per montaggio in campo, in sostituzione della vecchia serie U 58; anche la produzione di questo strumento è ancora attiva.
1974: la Kent Tieghi assume la responsabilità diretta delle attività di vendita, marketing e supporto tecnico in tutta Europa, derivanti dalla organizzazione tecnico commerciale della Kent.
Nel 1974 la Kent inglese viene assorbita in toto dalla multinazionale Brown Boveri Co. (BBC) operante nel settore della grande e media tensione. Anche la Kent Tieghi è coinvolta in questi cambiamenti societari ma mantiene, oltre al nome, una grande autonomia decisionale sui prodotti e mercati risultando alla nuova proprietà come una solida e proficua affiliata.
1975-1983: lancio della nuova serie P-3000 di regolatori da quadro, in sostituzione della linea Flexair, che conclude l’impegno più che ventennale nella strumentazione pneumatica; da questo momento Kent-Tieghi si orienterà sempre di più verso le soluzioni elettroniche.
1979: viene costruito un nuovo stabilimento nelle vicinanze di Lenno, a Ossuccio, per la produzione delle valvole di regolazione di derivazione Kent-Introl.

1981-1995: viene progettato a Lenno, con un notevole sforzo finanziario, un nuovo misuratore elettronico di pressione differenziale in sostituzione della serie Deltapi E. La grande differenza col predecessore risiede nel principio di misura, che dall’equilibrio di forze passa alla traduzione diretta della pressione in una informazione elettrica del suo valore, con l’impiego di un avanzato e sofisticato sensore induttivo. Inoltre la gamma delle versioni si amplia fortemente, non solo per la natura della misura: differenziale, relativa, assoluta; ma anche nelle varianti legate alle applicazioni: livello, portata, scelta di materiali e molto di più. Il prodotto risulta il primo e unico in Italia e tra i primi in Europa.
1985-1990: in una nuova sede a Fenegrò, nei pressi di Como, viene avviata la progettazione e sviluppo di sistemi di controllo con calcolatori di processo (DDC) derivanti dal progetto base K70 Kent Automation

Nel 1989 avviene la fusione tra la BBC e la ASEA che assume il nome di ABB. Un anno dopo la ABB acquisisce la Combustion Engineering di Stanford (Usa), che possiede la Taylor, antica e rinomata concorrente della Kent-Tieghi. Gli strumenti sono praticamente gli stessi e quindi si impone una aggregazione e una strategia progettuale e commerciale comune. La Kenti Tieghi assume la nuova ragione sociale di Kent-Taylor, ma Franco Tieghi resta amministratore delegato. Nel 1991 viene avviato un nuovo ed impegnativo programma triennale di progettazione della nuova serie di trasmettitori elettronici, con obiettivi ambiziosi, sia prestazionali che di costo industriale che imponeva una economia di scala con almeno 80.000 unità annue. Quello che nascerà è il modello 600T.
A questo punto, siamo nel 1993, Franco Tieghi esce dalla Kent Taylor e la direzione passa a funzionari ABB. Finisce l’era Tieghi ma lo stabilimento di Lenno rimane operativo ancora oggi.
3.2.7 - Guido Spriano (1895 - 1970)
Nel 1923 il ventottenne Guido Spriano lascia la SACMA, Società Anonima Costruzione Manometri e Affini, per lavorare in proprio con due operai in cantina. È la “bottega dei manometri” – come la definisce Girolamo Mezzalira nel suo Uomini e Strumenti, dal quale traiamo queste note biografiche – dove si deve lavorare bene per produrre oggetti tecnologici ineccepibili: si vuole avere come cliente l’industria che, a ragione, esige funzionalità e sicurezza. Inizia così la Spriano & C., con un mazzo di manometri indicatori a molla Bourdon, cui si aggiungeranno presto quelli di tipo Schaeffer.
Due anni dopo la bottega diventa una officina con 25 operai ed esce allo scoperto stabilendosi in via Comelico 13 a Milano. Per naturale affinità, l’officina Spriano alla manometria aggiunge la termometria: sono i termometri a mercurio con molla a spirale piana connessa al bulbo con un capillare.
Ma non bastano i soli indicatori. L’industria chiede anche registratori e strumenti per altre misure. E la qualità deve essere sempre elevata: anche se non è ancora nata la parola “affidabilità” e il modo per misurarla , la gente capisce che per sorvegliare i processi industriali occorrono “strumenti di cui fidarsi”. L’industria italiana dapprima viene a contatto con strumenti prodotti all’estero, soprattutto Germania e Stati Uniti; poi però, con gli anni dell’autarchia, vengono sviluppati in loco anche i prodotti industriali. Nel 1930, all’uscita del mondo occidentale dalla recessione, l’officina Spriano produce termo/manografi, misuratori di livello, misuratori di pressione differenziale e pressiometri a capsule. Da via Comelico, dice Mezzalira, sono usciti i primi misuratori “a corpo molleggiante” per buone misure di basse pressioni.
Intanto dall’America si hanno le prime avvisaglie di una nuova tecnologia strumentistica.
Arrivano gli strumenti pneumatici, i primi regolatori in cui l’aria in pressione, col
gioco di soffietti e ugelli, diventa segnale e azione regolante. Spriano è attento a questa svolta tecnologica, peraltro ben appetibile ai tecnici di meccanica fine; la passione per il mestiere e la spinta di alcuni clienti, portano nell’officina Spriano il vento della pneumatica.
Per prima la Pirelli insiste per avere una fonte italiana di strumenti pneumatici. Ma a Guido Spriano non basta occuparsi di pneumatica con le riparazioni e la costruzione di ricambi: è lo strumento a interessare l’uomo appassionato e il tecnologo. Così nel 1936 Spriano produce il primo Regolatore Pneumatico Modulante progettato e realizzato in Italia, contribuendo così significativamente al progresso tecnico dell’automazione e controllo per l’industria alimentare, della gomma e petrolchimica.
Gli ordini aumentano, aumenta il personale, che supera i 100 addetti, le macchine e le attrezzature hanno bisogno di nuovo spazio e nello stesso anno la Spriano si trasferisce in via Accademia 51.
Passata la tragedia bellica, la richiesta di strumentazione pneumatica riprende fiato: in Spriano si progettano e costruiscono nuovi modelli e si adottano nuovi materiali nati durante la guerra. Nel 1950 viene prodotto il “Regolatore a modulazione”, e nel 1956 le due serie pneumatiche “Sprianrector” e “Microrela”. Nel 1970, a seguito di una fase di rinnovamento, Spriano progetta e realizza una nuova e completa linea di Valvole di Regolazione con il marchio Mec-Rela, per il controllo dei Processi industriali.
Anche i trasmettitori pneumatici evolvono nel tempo. Nel 1965 viene prodotta la serie SG 51 a equilibrio di spostamento, seguita nel 1975 dalla serie SG 70 a equilibrio di forze. Nel 1980 anche in Spriano entrerà l’elettronica con lo sviluppo di una linea completa di strumenti analogici a due fili; qualche anno dopo, realizzerà i primi strumenti elettronici con capacità di Trasmissione e Regolazione integrata, utilizzando l’allora innovativa tecnologia a microprocessore e fornendo così all’automazione industriale nuovi strumenti di controllo dei processi. Nel frattempo, sul fronte aziendale e personale sono successi alcuni fatti interessanti. Già nel 1944 al commendator Spriano si associa l’ingegner Marzorati, tecnico con una lunga esperienza commerciale maturata come venditore della Jucker. Con la ripresa post bellica, l’accoppiata Spriano-Marzorati dà nuovo vigore alla società: nel 1950 la ragione sociale diventa Spriano SpA; nel 1958 le officine su trasferiscono nel nuovo stabilimento di Vimodrone (MI), «frutto – nota sempre Mezzalira –della oculata amministrazione e della precisa volontà di autofinanziamento, tipica della mentalità di imprenditori di altri tempi, favorita dalla tempre piemontese in atmosfera lombarda del comm. Spriano».
Nel 1969 sorgerà a Cologno Monzese la Mec-Rela SpA, consociata della Spriano, orientata alla produzione di valvole pneumatiche. L’anno successivo a Tarrasa (Barcellona) si costituisce la Spriano Espanola SA, indirizzata al mercato spagnolo.
Regolatore pneumatico di temperatura a modulazione
Si tratta di uno strumento realizzato da Spriano per la misurazione e registrazione della pressione di funzionamento di un impianto pneumatico.
Lo strumento è esposto al Museo Nazionale della Scienza e della Tecnologia “Leonardo da Vinci” di Milano, nella Sala dedicata alla Strumentazione che contiene strumenti originali raccolti dal GISI, con l’aiuto dell’AIS, presso le stesse aziende costruttrici. Questo modello dello strumento nasce con scopi didattico esplicativi: è infatti privo del coperchio di chiusura ed anche la scala indicatrice è parzialmente assente.
Su una base metallica di forma rettangolare sono fissati i circuiti pneumatici per la misurazione della pressione. In particolare sono presenti due manometri collocati nella parte superiore. Dalle caratteristiche identiche consentono la misurazione di valori compresi tra 0 e 4 Kg/cm2, con indicazioni numeriche ogni 0,5 e suddivisioni ogni 0,1 unità. Il valore misurato veniva trasmesso, grazie a un gioco di leve e richiami e a una lancetta con punta inchiostrata. Questa registrava su un foglio di carta millimetrata di forma circolare i valori su un arco di tempo settimanale. La carta millimetrata era fissata a un disco mosso da un moto orario. Questo disco non è presente ma è sostituito, per motivi didattici, da un equivalente in plastica parzialmente sezionato. Nella parte inferiore è collocato il modulatore che, grazie ad una manopola a leva, consentiva di impostare valori compresi tra 0 e 10.


3.2.8 - Rodolfo Rinaldi (1910 - 2000)
“Il cav. Rodolfo Rinaldi ha tutte le carte in regola per essere considerato l’uomo degli Asametri”: così Girolamo Mezzalira nel suo Uomini e Strumenti inizia il profilo del fondatore della “Rinaldi Industria Meccanica”, azienda fondata nel 1937 a Sesto San Giovanni per la produzione di apparecchi per saldatura autogena. Dalla denominazione dei prodotti deriva l’acronimo della ditta, che dal 1947 si chiamerà A.S.A. Apparecchiature Saldatura Autogena; l’acronimo ASA reste in vita anche quando Rinaldi rinuncia al filone dei cannelli ossidrilici, dedicandosi esclusivamente agli strumenti di misura e regolazione, che aveva realizzato come contorno agli apparecchi per la saldatura. Mezzalira fa notare l’unico curioso cambiamento nella grafia della ragione sociale: spariscono i tre puntini e la ditta diventa la ASA del cav. Rodolfo Rinaldi di Sesto; mentre la sede subisce alcuni trasferimenti, sempre nella cittadina dell’hinterland milanese, a causa della continua espansione della società.
Rinaldi nasce a Bergamo dove, nel 1929 si diploma a pieni voti quale Perito industriale meccanico presso l’Itis Paleocapa. Chi l’ha conosciuto lo descrive come un uomo di grande vitalità. Appena diplomato entra alla Falck dove, dedicandosi ai servizi complementari, viene a contatto con i problemi della combustione, gassificazione, trattamento dell’acciaio e con la cura manutentiva degli strumenti, dei macchinari e delle apparecchiature in genere. La sua volontà di fare non può però esaurirsi nel lavoro per altri; sente di doversi cimentare in proprio e così arriva in pochi anni a fondare la sua società.
ASA è la prima azienda sul mercato italiano a produrre e commercializzare i misuratori di portata ad area variabile a tubo di vetro adatti per liquidi e gas, successivamente denominati “asametri” in tutto il mondo (il marchio è registrato). L’Asametro è un misuratore di portata fondato sulle leggi della fluidodinamica di Bernoulli; permette di misurare anche piccole portate. La sua realizzazione è abbastanza semplice, purché si sappia lavorare il vetro; in proposito Rinaldi ricordava di aver visto, durante una visita in Inghilterra, come operava un vetraio specialista e di essersi “impadronito della tecnica”.
Primo acquirente e utilizzatore dei nuovi Asametri in vetro è il Donegani di Novara, centro di eccellenza nella ricerca e sviluppo in chimica. Rinaldi si fa ben presto conoscere e apprezzare nel settore strumenti stico e viene coinvolto nella miriade di esigenze diversificate dell’industria e in genere di chi impiega fluidi: misurare portate di aria, gas tecnici, criogenici, per saldare, per anestesia; misurare portare d’acqua, liquidi acidi e aggressivi.
Negli anni ‘60 vengono immessi sul mercato italiano e internazionale gli Asametri metallici, accessoriati di trasmettitori pneumatici o elettronici con possibilità di trasmissione a distanza del segnale, recependo le esigenze dell’industria che inizia la sua marcia verso l’automazione degli impianti. Nell’arco di pochi anni la ASA è in grado di ampliare tutta la propria gamma di misuratori di portata e di coprire le più diverse richieste di questo genere di strumentazione. Così Rinaldi risponde alle esigenze del mercato e si inserisce nel trend strumenti stico degli anni ’60: regolazione e trasmissione con la tecnologia pneumatica e con quella elettronica.
Nel 1983, per far fronte allo sviluppo di nuove linee di prodotto, verrà aperto un nuovo stabilimento a Grumello del Monte (a circa 60 km da Milano).
L’Asametro N° 17288
Un esempio di Asametro, esposto al Museo Nazionale della Scienza e della Tecnologia “Leonardo da Vinci” di Milano, nella Sala dedicata alla Strumentazione che contiene strumenti originali raccolti dal GISI, con l’aiuto dell’AIS, presso le stesse aziende costruttrici.
È un misuratore volumetrico di acido nitrico con indicatore di portata e trasmettitore pneumatico, adatto per le misure del flusso di acido nitrico circolante all’interno di un impianto idraulico.
Lo strumento ha forma sostanzialmente rettangolare e nella parte superiore diventa a sezione cilindrica. Su di esso sono presenti tre strumenti di misura di cui due piccoli manometri e un misuratore di flusso. I due manometri hanno forma circolare mentre il misuratore di flusso ha scala graduata posizionata su una superficie semicilindrica. Al di sotto della lancetta di lettura è posizionato uno strato riflettente per la correzione dell’effetto di parallasse. La scala è compresa tra 0 e 8 mc/h con indicazione di ogni unità e tacche ogni 0,2. Nella parte posteriore dello strumento sono presenti i collegamenti per l’entrata e l’uscita nel circuito pneumatico. Lo strumento è fissato assialmente a un condotto metallico in acciaio alle cui estremità inferiore e superiore sono saldate due flange per il collegamento al circuito principale.




3.2.9 - Erwin Sick (1909 – 1988)
Erwin Sick nasce a Heilbronn (Germania), figlio di un macchinista ferroviario. Studia ottica e lavora come operaio fino al 1928 quando inizia a frequentare i corsi di ingegneria ottica ed elettronica all’università di Gottingen, dove si laurea in ingegneria nel 1931.
Inizia la sua carriera di aritmetico ottico alla Siemens & Halske, con sede a Berlino.
Dopo sei mesi il dipartimento di aritmetica viene chiuso e Sick viene trasferito in laboratorio come ricercatore e aritmetico, nell’area delle pellicole a colori.
Dal 1934 al 1939 lavora – inizialmente come costruttore poi come ingegnere – in Siemens, Bosch e Askania, occupandosi di progetti di sviluppo su pellicole a colori e dispositivi cinematografici e astronomici. Nel periodo bellico lavora come responsabile di laboratorio alla A.C. Steinheil & Söhne, a Monaco di Baviera.
Nel frattempo, nel 1944, si sposa con Gisela Neumann e l’anno seguente inizia a lavorare in proprio: in una modesta abitazione a Vaterstetten (vicino a Monaco), dove vive insieme alla moglie, comincia a focalizzare tutta la sua attenzione sullo sviluppo tecnologico di dispositivi optoelettronici. In questo periodo Erwin mantiene la famiglia con i ricavi percepiti dalla costruzione e vendita di apparecchi radiofonici da lui stesso costruiti.
Il 26 settembre 1946, in una Germania appena uscita dal disastro della guerra, fonda l’azienda di sensori che diventerà SICK AG: mantenendosi totalmente estraneo alle questioni politiche, Erwin Sick riceve il permesso per avviare la sua attività dall’Autorità Americana.
Lui amava definirsi “un appassionato inventore e un riluttante uomo d’affari”; ma nonostante la riluttanza, l’attività avviata ottiene presto un buon successo. Nel 1949 riceve i primi ordini partecipando alla “Achema”, il grande evento fieristico per strumentazione chimica tenutosi in quell’anno a Francoforte dopo molti anni di interruzione. Nel 1950 lo stesso Erwin inventa la prima fotocellula per l’automazione industriale basata sul principio di autocollimazione.
Ma la vera svolta avviene l’anno successivo, quando, in occasione della fiera “Inventori tedeschi e nuovi sviluppi tecnologici” tenutasi a Monaco in luglio, Sick presenta il primo modello di barriera di sicurezza in legno mai realizzato e riceve un riconoscimento per le “eccezionali performance creative”. La registrazione, in data 20 ottobre 1951, del brevetto per l’invenzione della barriera di sicurezza basata sempre sul principio di autocollimazione, rappresenta la conquista tecnologica che apre la strada per tutti i progetti futuri e la base per lo sviluppo del dispositivo.
Nel 1952, al “Second International Machine Tool Exhibition” di Hannover, Sick presenta la prima barriera di sicurezza vendibile sul mercato; i successivi ordini danno il via alla prima produzione in serie e ai primi successi economici. L’attività cresce e Sick deve lasciare il capannone di Vaterstetten. Dapprima cerca invano di ottenere un prestito dalla Free State of Bavaria per poter costruire una nuova sede aziendale; poi, quando il Baden-Württemberg glielo concede, iniziano i lavori per lo spostamento da Monaco a Oberkich. Infine, nel 1956, avviene il trasferimento dell’azienda, con i suoi 25 dipendenti, da Oberkirch a Waldkirch.
Siamo a dieci anni dalla fondazione e Erwin ha come obiettivo un “sano business di medie dimensioni con 80-100 dipendenti ben scelti”; ma nell’anno del 50° anniversario l’impresa avrà uno staff di 1.700 persone e un fatturato di 350 milioni di marchi tedeschi.
Nell’ottobre 1956 Sick ottiene il brevetto per un nuovo tipo di sensore fotoelettrico a riflessione che diventerà il prodotto più venduto nella storia dell’azienda. Nel 1960 fonda l’Institute for Automation a Monaco, per lo sviluppo di dispositivi optoelettronici per l’industria; la scelta della capitale bavarese è dettata dalla scarsità di ingegneri qualificati a Walkirch.
Iniziano ad arrivare anche i riconoscimenti personali a Erwin Sick: nel 1971, in occasione del 25° anniversario dalla fondazione dell’azienda, riceve dal Ministro della Giustizia Rudolf Schieler, il Bundesverdienstkreuz 1. Klasse (Croce al merito federale, 1 classe ); nel 1980, la Facoltà di Meccanica dell’Università tecnica di Monaco gli conferisce il Dottorato honoris causa in ingegneria come riconoscimento del suo contributo “allo sviluppo scientifico e costruttivo di dispositivi ottici con valutazione di segnali elettronici”; nel 1982 riceve la Diesel Medal in oro “per le sue numerose invenzioni nel campo optoelettronico”.
In questi anni l’azienda raggiunge alcuni traguardi tecnologici di rilievo quali: il primo scanner per la rilevazione di oggetti luminescenti. (1970); il primo area scanner con forma a V, fascio rotante e uno speciale riflettore in categoria di sicurezza 2, per la protezione di aree pericolose (1976); il primo dispositivo per la misura del volume basato sul processo time-of-flight a ultrasuoni (1982); il primo sensore fotoelettrico con un secondo ricevitore – “a due occhi” – per rilevare un oggetto su sfondo chiaro (1985).
Nel 1996, a otto anni dalla morte del fondatore, nasce la filiale italiana dell’azienda, la SICK SpA, con sede a Vimodrone (MI).




3.2.10 - Georg H. Endress (1924 – 2008)
“Volevo dimostrare a me stesso , alla mia famiglia e al mondo che avrei potuto portare al successo un’idea”: così Georg H. Endress ha dichiarato una volta in risposta alla domanda del perché è diventato imprenditore. E con il suo unico senso dell’umorismo, ha aggiunto: “quando aspettavamo il nostro terzo figlio, mia moglie mi ha sfidato a fare qualcosa; così sono diventato un imprenditore”. Non si è trattato quindi in alcun modo di un percorso predeterminato.
Georg Herbert Endress nasce a Friburgo in Breisgau (Germania), dove suo padre era direttore di una fabbrica. Sette anni dopo, la famiglia si trasferisce a Zagabria (Croazia), dove Georg inizia la scuola; completerà i primi studi di meccanica a Basilea per poi passare a ingegneria a Zurigo. Dopo aver lavorato per diverse aziende in Svizzera, si trasferisce a Manchester per lavorare alla Fielden Electronics, una società produttrice di un nuovo tipo di dispositivo elettronico di misure di livello.
A questo punto egli è già sposato, con Alice Endress – Vogt, e nel 1947 nascerà il primo dei loro otto figli.
Georg torna dall’Inghilterra con l’idea di creare una società per la vendita degli strumenti di misura di livello capacitivi della Fielden e, nel 1953, insieme all’esperto banchiere Ludwig Hauser fonda la “L. Hauser KG”, con sede a Lörrach (Germania). I due personaggi hanno personalità contrastanti me che si integrano perfettamente: la lungimiranza di Endress e la prudenza di Hauser costituiscono la base del successo aziendale. Con il suo carisma e la sua eloquenza, Georg riesce a infondere entusiasmo e a coinvolgere i collaboratori, lavorando con persone di grande preparazione nel loro campo. Si parla di lui come di un capo affidabile, leale, duro se necessario, ma sempre leale. GHE, come era rispettosamente soprannominato, è rimasto sempre modesto e accessibile in ogni momento: “La popolarità non è cosa per me – diceva – preferisco di gran lunga quando mi dicono che ho una buona azienda e ottimi dipendenti, rispetto a quando qualcuno mi dà una pacca sulla spalla e mi dice che sono grande”.
Presto Georg Endress crea i suoi propri strumenti di misura, che vengono lanciati nel 1956. Nel 1957 la società viene rinominata Endress+Hauser GmbH. Passo dopo passo l’azienda si amplia. La prima società di distribuzione all’estero viene fondata nel 1960; nel 1970 si aprono filiali in Usa e in Giappone e poco dopo ci sarà il passaggio in Cina. Nel 1975 Hauser muore e la famiglia Endress resta unico titolare.
Intanto nuovi campi di attività vengono aggiunti: registratori di misura nel 1976; ingegneria delle misure di portata nel 1977; ingegneria delle misure della pressione nel 1985; infine, ingegneria di misura della temperatura nel 1994.
Nel 1984 Georg H. Endress riceve la Croce di Ufficiale dell’Ordine al Merito della Repubblica Federale di Germania; nel 1990 gli viene conferita la laurea honoris causa dell’Università di Basilea e nel 1994 diventa senatore onorario della Università di Friburgo e titolare della Medaglia per i Servizi del Baden-Württemberg.
All’inizio del 1995, Georg decide di trasferire la gestione della società al suo secondo figlio Klaus; al momento l’azienda ha oltre 4.300 dipendenti nel mondo e un fatturato di 680 milioni di franchi svizzeri. Altri tre suoi figli sono attivi in azienda: Hans-Peter è Managing Director di Endress + Hauser UK; Urs è Amministratore Delegato della società di distribuzione in Francia; Georg A. è Vice Presidente del Consiglio di Vigilanza del Gruppo Endress + Hauser.
Nel 2000 ha l’onore di ricevere le insegne francesi di Chevalier de la Légion d’Honneur.
Georg H. Endress ha sempre accompagnato il suo successo commerciale con l’obbligo di assumersi responsabilità sociali. Una sua costante preoccupazione è stata quella della cooperazione nella regione tedesco- franco-svizzera del Reno superiore, nella quale ancor oggi lavora la metà di tutti i dipendenti della società. Ha inoltre avviato l’apprendistato tri-nazionale e la formazione di ingegneri nella regione tri-nazionale intorno Basilea. Ha fondato la “BioValley Initiative”, una rete nel campo della Life Science nell’area tra Basilea, Friburgo e Strasburgo. è stato estremamente attivo nella “Regio-Gesellschaft Schwarzwald – Oberrhein” così come nella Associazione economica delle imprese industriali in Baden; entrambe queste associazioni lo nominano presidente onorario.
Muore, dopo una breve grave malattia poche settimane prima del suo 85° compleanno, circondato dalla sua famiglia a Arlesheim (Svizzera). La famiglia e la Georg H. Endress Foundation portano avanti il lavoro della sua vita.



3.3 - Università e Ricerca
3.3.1 - Aleksandr Michailovich Ljapunov (1857-1918)
Aleksandr Ljapunov è stato un matematico e fisico di importanza fondamentale nello sviluppo e nella formalizzazione della teoria dei sistemi, un costrutto teorico che oggi conta diversi contributi fondamentali che lo ricordano portandone il nome.
Ljapunov fu artefice della formulazione rigorosa del concetto di stabilità nella teoria dei sistemi dinamici, con i teoremi e i metodi di calcolo che ne seguirono. Strumenti teorici estremamente utili anche nella meccanica e nella teoria del controllo, in particolare nello studio dei sistemi oscillanti. Ma l’impegno di Ljapunov si espresse anche con lavori di idrostatica, di fluidodinamica e di statistica.
Ljapunov vive nella Russia zarista di fine ottocento, un paese di forti contrasti sociali, in un periodo travagliato, che tuttavia ha prodotto una forte vivacità intellettuale e grandi figure del pensiero scientifico e umanistico. La sua famiglia ha giocato un ruolo fondamentale nella formazione di Aleksandr Michailovich: infatti il padre è stato astronomo all’Università di Kazan fino a due anni prima della sua nascita. La famiglia Ljapunov si trasferisce poi a Yaroslav quando il padre ottiene l’incarico di direttore del Liceo Demidovski; in questa città nascerà Aleksandr.
L’educazione di Aleksandr inizia tra le mura domestiche e in seguito, per preparare il suo ingresso al ginnasio, è lo zio R. M. Sechenov ad occuparsi di perfezionare la preparazione del giovane. Nel 1870, pochi anni dopo la morte del padre, la famiglia Ljapunov si trasferisce Niznij Novogorod – città che in epoca sovietica prenderà il nome di Gorkij – dove Ljapunov frequenta un ginnasio locale. Aleksandr non è l’unico figlio di talento della famiglia Ljapunov: il fratello Sergei diventerà un compositore e un altro fratello, Boris, diventa un linguista specializzato in idiomi slavi, attività che gli varrà la nomina a membro della nota Accademia delle Scienze Sovietica.
A Niznij Novogorod, mentre frequenta la scuola superiore, Ljapunov conosce Andrei Andrejevich Markov con cui strinse amicizia. I due si diplomeranno nel 1876 e si iscriveranno entrambi alla facoltà di Matematica e Fisica dell’Università San Pietroburgo. Markov diventa un matematico conosciuto per il suo lavoro nello studio dei processi stocastici e nel calcolo delle probabilità degli eventi mutuamente dipendenti; a lui si devono le “catene di Markov”.
All’Università San Pietroburgo Ljapunov è studente del matematico Pafnutj Lvovich Chebjshev, molto noto per le è ricerche nell’ambito della teoria dei numeri. Ljapunov si laurea nel 1884con una tesi sullo studio dei fluidi in rotazione, a cui seguirono numerosi altri lavori sulla fluidodinamica. Nel 1886 sposa Natalia Rafailovna, la figlia dello zio Sechenov, il suo precettore, che era stata sua compagna di studi. Chebjshev ha una grande influenza su Ljapunov e contribuisce alla sua formazione come matematico.
Il concetto di stabilità in un sistema dinamico, ad esempio oscillante, era già stato osservato e in parte compreso prima di Ljapunov; ma è lui a formalizzarlo e inquadrarlo in una teoria coerente. La tesi che gli vale il dottorato, “Il problema generale della Stabilità del moto” (12 ottobre 1892), rimane un testo di riferimento nell’ambito della teoria dei sistemi dinamici. In seguito Ljapunov ottiene la docenza all’Università di Karkov, dove rimane fino al 1902. All’Università di Karkov Ljapunov riveste anche un ruolo di primo piano nella Società matematica di Karkov, della quale è presidente dal 1899 al 1902. Nel 1901 viene eletto all’Accademia delle Scienze Russa di San Pietroburgo e in questa città si trasferisce. Nel 1917 accetta un incarico all’Università di Odessa, anche in considerazione del giovamento che il rinomato clima salubre del Mar Nero potrebbe recare alla cagionevole salute della moglie.
Lo scienziato muore nel 1918, togliendosi la vita poco dopo la scomparsa della moglie Natalia, che soffriva di tubercolosi. Nel 1908 era stato nominato socio straniero della Accademia dei Lincei e nel 1916 socio dell’Accademia delle Scienze di Francia.
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, dicembre 2009)


3.3.2 - Edward John Routh (1831 – 1907) e Adolf Hurwitz (1859 – 1919)
I loro nomi sono accomunati nel celebre “criterio”, che ha tuttora una notevole importanza nell’ambito della stabilità dei sistemi in retroazione.
Edward John Routh è un matematico inglese, nato in Canada ma arrivato in Inghilterra giovanissimo; si laurea all’Università di Londra avendo come maestro il celebre Augustus de Morgan e appena dopo la laurea condivide con James Clerk Maxwell lo Smith’s Prize. Rifiuta la proposta di George B. Airy di lavorare all’Osservatorio Reale di Greewich e si dedica a un’intensa attività di insegnamento e di studio; pubblica, tra gli altri, il testo Dynamics of a System of Rigid Bodies, che rappresenta un notevole contributo alla sistematizzazione di un moderno approccio alla meccanica.
Riprendendo il problema formulato da Maxwell nel suo On Governors, Routh nel 1877 pubblica un trattato esteso “Treatise on the Stability of a Given State of Motion”, nel quale fornisce una relazione tra il modello matematico di un sistema lineare e le sue proprietà per mezzo di equazioni differenziali di grado arbitrario.
Nello stesso anno 1877 ottiene un altro riconoscimento, ricevendo dalla Facoltà di Matematica dell’Università di Cambridge il prestigioso Adam Prize.
L’altro nome è quello di Adolf Hurwitz, matematico tedesco, nato a Hildesheim in Bassa Sassonia da una famiglia ebrea. Entrato all’Università di Monaco di Baviera, inizia a frequentare le lezioni di Felix Klein; dopo un anno passato all’Università di Berlino, dove segue i corsi di Kummer, Weierstrass e Kronecker, torna a Monaco e da lì segue Klein a Lipsia dove ottiene il dottorato con una tesi sulle funzioni modulari ellittiche. Dopo una breve parentesi a Gottinga, ottiene un incarico alla Albertus Universität di Königsberg, dove ha occasione di frequentare il giovane David Hilbert e Hermann Minkowski. Nel 1892, ottiene la cattedra di matematica al Eidgenössische Polytechnikum di Zurigo (l’attuale ETH) dove rimarrà per il resto della sua vita.
I suoi contributi alla matematica sono notevoli: a partire dalla teoria delle superfici di Riemann, utilizzate per dimostrare molti risultati fondamentali sulle curve algebriche, tra cui il teorema di automorfismo di Hurwitz. Studia anche l’algebra dei quaternioni, dove definisce quelli che ora sono detti “quaternioni di Hurwitz”. Nel campo dei sistemi di controllo, Hurwitz deriva nel 1985, indipendentemente da Routh, il criterio per determinare la stabilità di un sistema lineare. Arriva a questo risultato a partire da un lavoro di Aurel Stodola, che si stava occupando di un problema di controllo delle turbine e che per primo aveva pensato di linearizzare le equazioni, mostrando la validità delle previsioni di Maxwell e riconducendo il problema generale del controllo automatico allo studio delle radici delle equazioni non di terzo grado ma di grado arbitrario. Non avendo informazioni sul lavoro di Routh, Stodola si era rivolto a Hurwitz chiedendogli di individuare le condizioni in base alle quali le radici di equazioni algebriche di grado arbitrario sono situate, nel piano complesso, sulla sinistra dell’asse immaginario. Applicando un teorema di Charles Hermite, Hurwitz trova un elegante criterio, ancora oggi in uso nella teoria del controllo automatico, chiamato appunto criterio di Routh-Hurwitz.
L’equivalenza dei criteri di stabilità di Hurwitz e Routh sarà dimostrata da Enrico Bompiani nel 1911.



3.3.3 - Giuseppe Massimo Pestarini (1886 - 1957)
È l’unico italiano – come osserva Antonio Lepschy ne “L’Automatica in Italia dal 1945 al 1975” su Automazione e Strumentazione (Ottobre 1997) – citato da Stuart Bennett nel primo volume del classico testo A History of Control Engineering 1800 – 1930 dove si parla delle metadinamo da lui inventate e spesso utilizzate in applicazioni di controllo. In effetti – nota Lepschy – «l’iniziale con cui viene indicato il suo primo prenome è la J della forma inglese Joseph, spesso utilizzata dallo stesso Pestarini».
Giuseppe Massimo Pestarini, nasce ad Atene da padre italiano e madre greca; segue corsi universitari prima in Grecia, poi a Parigi e a Monaco di Baviera, e diventa ingegnere elettrotecnico. Lavora in grandi industrie internazionali come Thomson Houston e Westinghouse (e in Gran Bretagna si fa notare per l’impiego di metamotori nella metropolitana di Londra). Dal 1937 insegna in Italia: prima macchine elettriche al Politecnico di Torino e poi nella Facoltà di Ingegneria dell’Università di Roma. Nel dopoguerra il suo insegnamento universitario si svolge negli Stati Uniti, dove sviluppa i suoi studi e le realizzazioni nel campo delle macchine elettriche, soprattutto di quelle a corrente continua. Va soprattutto ricordato per l’invenzione della metadinamo e per aver elaborato una teoria generale per le macchine a corrente continua a commutazione.
Sulle metadinamo pubblica un volume (Metadyne Statics) che avrebbe dovuto essere il primo di una serie di almeno tre (con Metadyne Periodics e Metadyne Dynamics, rispettivamente sulle metadinamo in alternata e sul comportamento transitorio delle metadinamo), che però non riuscirà a portare a termine per la morte, sopravvenuta due anni dopo il suo rientro in Italia, dove era tornato per farsi operare a causa di un tumore.
La metadinamo è una macchina elettrica in grado di convertire la corrente elettrica a corrente continua elevandone o abbassandone la tensione. Nella definizione dello stesso Pestarini, si tratta di “una macchina a corrente continua con più di due file di spazzole per paio di poli”; il maggior numero di spazzole è dovuto proprio alla caratteristica concettuale della metadinamo che funziona prevalentemente utilizzando le correnti di armatura (indotto). Le configurazioni si distinguono in base alla posizione delle spazzole; essenzialmente vengono utilizzate: quella “a croce”, che trasforma la corrente continua a tensione costante in corrente continua a corrente costante; quella “a otto”, che differisce per avere gli utilizzatori disposti in modo simmetrico su due circuiti applicati tra una spazzola primaria e una secondaria; quella “a tridente”, usata nella trasformazione delle locomotive E 620. Oggi il dispositivo è caduto in disuso in seguito all’avvento dei dispositivi statici.
Al rientro in Italia nel 1955, l’università italiana non riesce a offrirgli una sistemazione degna del suo prestigio, ma che riceve dalla Fondazione Bordoni l’incarico della “supervisione” del Laboratorio di Servomeccanismi presso l’Istituto Superiore delle Poste e delle Telecomunicazioni.


3.3.4 - Norbert Wiener (1894 – 1964)
Matematico statunitense, è considerato il fondatore della Cibernetica ma ha dato anche importanti contributi alla Teoria della probabilità.
Fin da bambino rivela un’intelligenza vivissima: a tre anni è già in grado di leggere correttamente e a cinque legge in greco e latino. A otto anni è colpito da una grave forma di miopia che gli impedì per qualche tempo di leggere.
Dopo il diploma si iscrive all’Università di Tufts, diventando il più giovane studente universitario della storia americana. Si laurea in Matematica e successivamente si iscrive a Zoologia ad Harvard per poi trasferirsi alla Cornell University per studiare Filosofia. Passa poi in Inghilterra, al Trinity College di Cambridge, dove studia sotto la guida di Bertrand Russell e Godfrey Hardy. Durante il primo conflitto mondiale ritorna negli Usa e alla fine della guerra cercò un posto in Università: non riuscendo a entrare ad Harvard, chiusa ai candidati ebrei, accetta un posto al Massachusetts Institute of Technology, il MIT allora ancora poco noto.
Dalle sue ricerche è nata la cibernetica, cioè la disciplina che si occupa non solo del controllo automatico computerizzato delle macchine ma anche dello studio del cervello umano, del sistema nervoso e del rapporto tra i sistemi naturali e artificiali. Alla cibernetica Wiener approda fin dai primi anni ’40, sulla base di due idee guida: il concetto di feedback (o retroazione), con la sua capacità di stabilizzazione, e la trasmissione dell’informazione così come si attua tra i diversi componenti di un sistema complesso favorendone il funzionamento come un insieme unitario.
Il processo che riporta all’ingresso di un sistema alcune informazioni presenti in uscita, così da modificare l’azione tenendo conto dei risultati ottenuti, è un’idea del tutto nuova; verrà successivamente estesa ad altri campi, portando alla scoperta che anche alcuni meccanismi neurofisiologici possono essere simulati con sistemi a feedback.
Per quanto riguarda l’altro pilastro della cibernetica, la trasmissione delle informazioni, Wiener riprende alcune idee di Claude Shannon, legate al concetto di quantità di informazione, sviluppando una teoria della trasmissione dei segnali in presenza di rumore di fondo.
Nel 1945 Wiener e John von Neumann organizzano un convegno a Princeton, al quale parteciparono Warren McCulloch, Walter Pitts e altri matematici, logici, fisici e ingegneri: il convegno è considerato da Wiener l’atto di nascita della cibernetica (anche se tale termine sarà introdotto più tardi), dove inizia ad essere utilizzato un linguaggio comune con termini come analogico, digitale, bit, feedback ecc.
Wiener riunifica le sue ricerche e l’esperienza compiuta durante e dopo la guerra nel saggio Cybernetics (1948), nel quale viene descritta la nuova prospettiva sviluppato attorno ai temi chiave del controllo delle operazioni e della modalità di trasmissione dell’informazione elaborata.
Tra i contributi scientifici specifici di Wiener vanno ricordati: i cosiddetti processi di Wiener, il filtro di Wiener, il teorema di Wiener–Khinchin, il Teorema di Paley-Wiener, l’indice di Shannon-Wiener, lo Spazio di Wiener.
Nel 1964 muore per infarto, mentre sta salendo la celebre scalinata dell’Università di Stoccolma per prender parte a una riunione per l’assegnazione dei premi Nobel.
È stato insignito, tra gli altri, del Bôcher Memorial Prize nel 1933 e della National Medal of Science nel 1963. Un cratere della Luna porta il suo nome.



3.3.5 - Giuseppe Evangelisti (1903 – 1981)
Dopo la laurea in ingegneria civile a Bologna nel 1927, Giuseppe Evangelisti esercita per breve tempo la libera professione, prima di entrare nella Facoltà di ingegneria dell’Università di Bologna presso la cattedra di costruzioni idrauliche dove nel 1942 diventa professore ordinario. Tiene per lungo tempo anche l’incarico di “Impianti speciali idraulici” e quello di “Teoria dei circuiti elettrici” presso la scuola di perfezionamento di radiocomunicazioni della stessa Facoltà; nella quale fonda, nel 1957, e dirige fino al 1969, il Centro Calcoli e servomeccanismi, tenendo anche per incarico il corso di Controlli automatici.
Si occupa principalmente dei problemi di moto permanente nei canali e nelle condotte in pressione, del calcolo statico di tubi in pressione, di problemi di stabilità nella regolazione degli impianti idroelettrici. Il suo testo La regolazione delle turbine idrauliche, pubblicato nel 1947, è – come nota Antonio Lepschy ne “L’Automatica in Italia dal 1945 al 1975” su Automazione e Strumentazione (Ottobre 1997) – « un vero e proprio trattato (…) apprezzato in vari altri paesi, che comparve sistematicamente fra le opere più significative concernenti sistemi di controllo citate nelle bibliografie internazionali su questo tema pubblicate negli anni Cinquanta».
Agli inizi degli anni Cinquanta organizza un viaggio in Usa, dove illustra al MIT lo stato della ricerca in idraulica in Italia; è un’occasione per un fruttuoso scambio di idee ed esperienze – come ha osservato Claudio Bonivento – che orienterà la sua attività successiva e sarà di grande importanza per la sviluppo della nuova disciplina dei Controlli Automatici.
Lepschy osserva che una «testimonianza di questo prestigio è anche il fatto che Giuseppe Evangelisti, unico degli Italiani, venne chiamato a far parte del piccolo e selezionato gruppo che nel 1956 promosse la fondazione della International Federation of Automatic Control (IFAC), nel quadro della quale fu chiamato a svolgere funzioni di rilievo». Nel 1956 infatti Evanelisti partecipa alla famosa Conferenza di Heidelberg ed è l’unico delegato italiano a firmare la celebre risoluzione “in favour of an international Union of Automatic Control”. Farà parte del primo Executive Council dell’IFAC dal 1957 al 1961.
Nel 1960, durante il primo Congresso Mondiale dell’Automazione a Mosca, Evangelisti presenta la memoria “On the Problem of Frequency Control in the Hydro-electric Stations” ed è chairman di una sessione.
Uomo con una notevole preparazione scientifica e tecnica ma anche con un’ampiezza di interessi, una vasta cultura generale, unite a una finezza del tratto e una profonda e gioviale umanità. È stato socio dell’Accademia dei Lincei, e Socio Benedettino dell’Accademia delle Scienze dell’Istituto di Bologna. Ha ottenuto la Medaglia d’oro dei benemeriti della Scuola, della Cultura e dell’Arte (1966); il Premio “Jona” dell’associazione elettrotecnica italiana (1953); i Premi “G. Sacchetti” e “C. Bologna” (1968); oltre alla nomina a Dottore “honoris causa” da parte della Technische Universitat di Monaco di Baviera.



3.3.6 - Lev Semenovich Pontryagin (1908 – 1988)
Nato a Mosca, all’età di 14 anni Pontryagin rimane vittima di un incidente, un’esplosione, che lo rende cieco. Grazie alla decisione e alla costanza della madre riesce a studiare e nel 1925 si iscrive all’Università di Mosca dove i suoi docenti si accorgono subito delle sue qualità eccezionali. Si laurea nel 1929 e viene inserito nella Facoltà di Meccanica e Matematica. Nel 1934 diventa membro dell’Istituto Steklov dove nel 1935 diventa capo del Dipartimento di Topologia e Analisi Funzionale.
Si occupa di problemi di topologia e algebra e affronta in particolare gli aspetti della dualità. Nel 1934 Pontryagin riesce a dimostrare il cosiddetto “quinto problema di Hilbert” per gruppi abeliani utilizzando la teoria dei caratteri sui gruppi abeliani localmente compatti che egli stesso aveva introdotto. Nello stesso anno risolvere completamente il problema del calcolo dei gruppi di omologia di Lie con un approccio totalmente diverso da quello suggerito da Henri Cartan.
Il nome di Pontryagin è collegato a molti concetti matematici: lo strumento essenziale della teoria del cobordismo è la costruzione di Pontryagin- Thom; un teorema fondamentale relativo alle classi caratteristiche di una varietà topologica si basa sulle classi speciali dette classi caratteristici di Pontryagin; uno dei principali problemi delle classi caratteristiche non è stato risolto fino a quando Sergei Novikov dimostrato la loro invarianza topologica.
Nel 1952 Pontryagin cambia completamente la direzione della sua ricerca: inizia a studiare problemi di matematica applicata, in particolare studia equazioni differenziali e teoria del controllo. In realtà il cambiamento non è così improvviso come sembra: dal 1930 Pontryagin era in contatto con il fisico A.A. Andronov e aveva regolarmente discusso con lui dei problemi della teoria delle oscillazioni e della teoria del controllo automatico su cui Andronov stava lavorando; aveva già pubblicato nel 1932 un saggio con Andronov sui sistemi dinamici.
Ma il grande cambiamento nel lavoro di Pontryagin si verifica nel 1952, con la morte di Andronov. Nel 1961, con i suoi studenti V. G. Boltyanskii, R. V. Gamrelidze e E. F. Mishchenko, pubblica la teoria matematica dei processi ottimali che contiene l’elegante soluzione dei problemi di controllo nota come “principio del massimo di Pontryagin” L’anno seguente riceverà il premio Lenin per questo lavoro; aveva già ottenuto altre onorificenze: nel 1939 è stato eletto alla Accademia delle Scienze e nel 1941 è stato uno dei primi destinatari del premio Stalin. Nel 1970 viene eletto Vice-Presidente della International Mathematical Union.


3.3.7 - Claude Shannon (1916 - 2001)
Claude Elwood Shannon matematico e ingegnere elettronico statunitense, è considerato il fondatore della teoria dell’informazione. Dopo la laurea all’Università del Michigan, nel 1936 cominciò a preparare la tesi di dottorato al Massachusetts Institute of Technology (MIT) sotto la guida di Vannevar Bush e nel 1940 ottiene il dottorato in matematica con una tesi sull’utilizzo dell’algebra di Boole per l’analisi e l’ottimizzazione dei circuiti di commutazione a relay; in particolare Shannon si era interessato alla teoria e alla progettazione dei complessi circuiti a relay che controllavano le operazioni dell’analizzatore differenziale, cioè la macchina per risolvere equazioni differenziali. All’epoca il sistema di Boole basato sulla combinazione di 0 e 1 è ancora poco noto e il lavoro di Shannon contribuisce notevolmente alla sua diffusione.
Nel 1941 viene assunto come ricercatore matematico alla Bell Telephones, dove rimane fino al 1972. Durante la guerra mondiale si dedica allo studio dei sistemi di controllo delle batterie contraeree, svolgendo un ruolo importante per la difesa dell’Inghilterra durante i raid aerei dei tedeschi.
Nel 1948 il suo articolo “The Mathematical Theory of Communication” segna una svolta nella storia della teoria dell’informazione. Shannon affronta il problema, di natura pratica, di come trasmettere messaggi impedendo che i “rumori” e disturbi vari ne alterassero il contenuto. Capisce che il problema è anzitutto di definire in maniera precisa cos’è il contenuto di informazione di un messaggio e propone una teoria generale della trasmissione e dell’elaborazione delle informazioni, basata sull’idea geniale fu che il contenuto di informazione non ha nulla a che vedere col contenuto del messaggio, ma col numero di 0 e 1 necessari per trasmetterlo; la natura del messaggio, numeri, musica, immagini, è irrilevante. In ogni caso si trattava di sequenze di 0 e 1. In quell’articolo appare per la prima volta il termine bit, per indicare l’unità elementare di informazione, e le cifre binarie diventavano l’elemento fondamentale in ogni comunicazione.
Nel 1949 pubblica un altro notevole articolo, “La teoria della comunicazione nei sistemi crittografici”, con il quale praticamente fonda la teoria matematica della crittografia.
Un altro suo contributo fondamentale per la teoria della comunicazione è il Teorema che porta il suo nome e che permette di formulare l’equazione in base alla quale calcolare la massima velocità di trasmissione in un canale del quale si conosce la larghezza di banda e il rapporto segnale/rumore.
Shannon è inoltre riconosciuto come il “padre” del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).
Nel 1956 è nominato professore di scienze presso il MIT dove insegna fino al 1978, pur continuando fino al 1972 le ricerche nei laboratori Bell. Le sue ultime ricerche hanno riguardato i nascenti studi sull’intelligenza artificiale; arrivando a elaborare programmi per il gioco degli scacchi e alcuni dispositivi “intelligenti”.
Ha ricevuto numerosi riconoscimenti tra i quali: nel 1940 l’Alfred Nobel American Institute of American Engineers Award, nel 1966 la National Medal of Science, nel 1985 la Audio Engineering Society Gold Medal, nel 1985 il Kyoto Prize.
Colpito dalla malattia di Alzheimer, ha passato gli ultimi anni in una casa di ricovero.

3.3.8 - Otto J.M. Smith (1917 – 2009)
Otto J.M. Smith nasce ad Urbana, nell’Illinois (Usa), e nel 1923 la sua famiglia si trasferisce a Stillwater, nell’Oklahoma, dove il padre ottenne un posto come insegnante di ingegneria chimica. Otto si laurea e consegue il dottorato in ingegneria elettrica all’Università di Stanford. Nel 1947 arriva a Berkeley dove lavorerà fino al giorno della sua scomparsa.
Smith svolge quindi un’importante attività di insegnamento, come professore di ingegneria elettrica all’Università della California (Berkeley), ma ha costantemente e continuativamente mantenuto un’intensa attività di inventore e innovatore nell’ambito dell’ingegneria elettronica, dell’elettrotecnica e nei sistemi di controllo automatici. È noto principalmente per l’invenzione del predittore di Smith, molto usato nella regolazione dei sistemi retroazionati e diffuso nell’industria di processo, dalla chimica alla raffinazione.
Il predittore di Smith è un metodo che lo studioso inventa nel 1957 per gestire il ritardo nei sistemi di controllo retroazionati. Il predittore è utilizzato soprattutto nei sistemi dove il ritardo è dominante rispetto al tempo dell’azione di controllo; le applicazioni più diffuse, ma non certo le sole, sono nell’industria di processo. Il sistema di regolazione inventato da Smith si basa sulla possibilità di prevedere, in modo matematico, il ritardo in un sistema di controllo retroazionato, in modo che la correzione del regolatore possa tenere conto del ritardo insito nell’azione sul processo. Si tratta di un sistema di regolazione tanto più utile quanto più il ritardo è rilevante. Un ritardo che può dipendere da numerosi fattori e può essere dovuto alla velocità del flusso delle materie prime o dei tempi insiti nei processi di lavorazione, ma che può dipendere anche dalla distanza del sensore dai sistemi di regolazione o da problematiche legate alla complessità dell’azione dell’attuatore controllato.
Smith aveva dimostrato come un modello matematico del processo possa essere utilizzato per consentire al controllore di prevedere le mosse più corrette per gestire il processo, senza bisogno di aspettare un responso diretto sui risultati di ogni mossa. Riuscire ad implementare il controllo predittivo di Smith con dei dispositivi analogici era un impresa tutt’altro che banale, anche se ampiamente giustificata dall’incremento di prestazioni. Oggi i moderni sistemi di controllo digitali, con l’ampia capacità di calcolo a basso costo di cui dispongono, consentono di applicare il predittore di Smith in modo molto più agevole ed economico, riducendo le oscillazioni nei cicli di controllo.
Tuttavia è anche importante ricordare l’intensa attività svolta da Smith in settori diversi dal controllo di processo. Ha inventato e brevettato diversi dispositivi che permettono ai motori a induzione trifase di funzionare bene anche con reti di alimentazione monofase e a lui si deve anche l’invenzione di un circuito in grado di generare onde quadre, a lungo utilizzato nei generatori di segnale. Oggi i dispositivi inventati da Smith in ambito elettrotecnico sono utilizzati per far funzionare i grandi motori trifase, che possono essere nell’ordine delle centinaia di kilowatt, anche dove l’alimentazione è monofase.
Dagli anni ‘70 fino a un periodo di poco precedente la sua morte lo scienziato ha registrato brevetti intesi a migliorare e rendere più efficienti i motori elettrici e i generatori, tra cui quelli eolici e solari. Molto del suo lavoro ha riguardato sistemi e dispositivi per migliorare i processi industriali e i sistemi per generare e conservare l’energia. Di lui si può dire che sia stato un precursore nella ricerca dell’efficienza energetica nei dispositivi elettrici per l’industria, con un ingente numero di brevetti in questo campo.
L’assidua attività di ricercatore di Smith è testimoniata anche dagli oltre 150 lavori pubblicati.
Durante la sua carriera ha ricevuto molte onorificenze, tra cui il Guggenheim Fellowship nel 1960, il premio R & D Magazine nel 1999 per l’enabler phaseable, “uno dei 100 nuovi prodotti tecnologicamente più significativi”, e nel 2003 la rivista InTech, dell’ISA, l’ha citato come uno dei “50 più influenti innovatori del settore dal 1774”.
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, gennaio 2010)


3.3.9 - Richard Ernest Bellman (1920 – 1984)
Richard Bellman è una delle personalità di spicco nella moderna teoria del controllo e nell’analisi dei sistemi. Nato a Brooklyn, dopo la laurea in matematica trascorre gli anni della Seconda Guerra Mondiale come istruttore militare e dal 1944 al 1946 partecipa al Progetto Manhattan a Los Alamos, occupandosi di problemi di fisica teorica.
Ottenuto il dottorato a Princeton, sotto la guida di Solomon Lefschetz con una tesi sulla stabilità delle equazioni differenziali, vi è rimasto come Assistant Professor di Matematica per poi assumere la carica di Professore Associato di Matematica presso la Stanford University. Nell’estate del 1949 ha iniziato a lavorare presso la RAND Corporation e vi è tornato nel 1952 come ricercatore di matematica applicata. Già l’anno successivo proprio la RAND pubblicherà il suo primo libro An introduction to the theory of dynamic programming; ed è proprio la programmazione dinamica il suo principale contributo scientifico e quello per cui è diventato celebre. Ma non è stato l’unico: attraverso un lavoro di revisione e approfondimento delle ipotesi originali sottostanti il suo modello matematico ha raffinato la sua impostazione introducendo ipotesi più realistiche. Ha affrontato i problemi decisionali Markoviani e nel 1958 ha pubblicato il suo primo articolo sui processi di controllo stocastico, dove ha introdotto quella che oggi è chiamata l’equazione di Bellman.
È stato un autore molto prolifico e il numero di articoli e libri pubblicati nel corso della sua carriera è piuttosto sorprendente: l’elenco degli articoli scientifici comprende 621 titoli, mentre sono 41 i libri e 21 le traduzioni di libri nei quali Bellman figura come autore o co-autore. Per dare solo un’idea della portata di questa produzione editoriale, si possono citare alcuni dei titoli più significativi: A Survey of the Theory of the Boundedness, Stability, and Asymptotic Behavior of Solutions of Linear and Nonlinear Differential and Difference Equations (1949); A survey of the mathematical theory of time-lag, retarded control, and hereditary processes(1954); Dynamic programming of continuous processes (1954); Dynamic programming (1957); Some aspects of the mathematical theory of control processes (1958); Introduction to matrix analysis (1960); A brief introduction to theta functions (1961); An introduction to inequalities (1961); Adaptive control processes: A guided tour (1961); Inequalities (1961); Applied dynamic programming (1962); Differential-difference equations (1963); Perturbation techniques in mathematics, physics, and engineering(1964); and Dynamic programming and modern control theory (1965).
L’anno 1965 è particolarmente importante perché Bellmann lascia la RAND e accetta un incarico come professore di Matematica, Ingegneria Elettrica e Medicina presso la University of Southern California. In seguito i suoi interessi si orientano verso i computer come strumento nella ricerca matematica e su questo scrive libri come Algorithms, graphs and computers (1970).
Nel 1973 gli viene diagnosticato un tumore al cervello e, anche se l’operazione chirurgica per rimuoverlo ha successo, le complicanze dell’intervento lo lasciano quasi totalmente paralizzato. Sorprendentemente, però, riesce a restare attivo nella sua ricerca matematica nei restanti 10 anni di vita scrive circa 100 articoli oltre a libri come Mathematical methods in medicine (1983) e The Laplace transform (1984); ma anche dopo la sua morte continuano a essere pubblicati suoi testi come Selective computation(1985) e Methods in approximation (1986).
Numerosi anche i riconoscimenti ricevuti per il suo straordinario contributo alle applicazioni della matematica: nel 1970 vince il primo Norbert Wiener Prize di Matematica Applicata e nello stesso anno riceve il primo Dickson Prize dalla Carnegie-Mellon University; riceve il John von Neumann Theory Award e nel 1979 viene insignito della Medaglia d’Oro d’Onore della IEEE; infine nel 1983 riceve la Heritage Medal dall’American Council for Control.


3.3.10 - Giorgio Quazza (1924 – 1978)
«Il ricordo della figura umana e professionale di Giorgio Quazza: la persona, il ricercatore, il manager: un compito non facile, perché si rischia -come in qualsiasi rievocazione o commemorazione – di essere incompleti e convenzionali e di cadere nella banalità o nella retorica. Per un tragico e assurdo destino, Giorgio Quazza ci è venuto a mancare a 54 anni: davvero pochi, se si pensa a quello che ha fatto e seminato nel mondo tecnico e scientifico. Mi consentirò, nel seguito, anche qualche considerazione personale, dettata dal ricordo di tanti anni passati alle sue dirette dipendenze, in un rapporto di stretta collaborazione, condivisione, amicizia. Ma prima ritengo doveroso e opportuno riassumere il suo curriculum.
Giorgio Quazza nacque a Mosso S. Maria (Biella) nel 1924. Suo padre fu un noto e apprezzato studioso, professore di Storia; la madre era di origine nobile napoletana. Dopo il liceo classico si iscrisse, diciassettenne, al Politecnico di Torino. Interruppe presto gli studi, per unirsi ai movimenti partigiani. Catturato, fu prigioniero a Bolzano e poi a Mauthausen. Dopo un tentativo di evasione, si autodenunciò per evitare, col suo sacrificio personale, una fucilazione di massa: ma venne graziato. Liberato nel maggio 1945, fu proposto per una medaglia d’argento al merito partigiano, che però rifiutò.
Nel dicembre 1946 – poco più che ventiduenne, dopo un intenso periodo di studio – si laureò in Ingegneria Industriale Elettrotecnica, con 110/110, con una tesi su “Stabilità statica e dinamica delle grandi reti elettriche”. Nel 1947 fu assunto dalle Officine di Savigliano (Torino), dove si occupò di macchine elettriche e regolazioni. Dal 1950 al 1953 fu in America, prima al MIT e poi al Brooklyn Polytechnic Institute, dove approfondì particolarmente le conoscenze di teoria dei servomeccanismi. Il periodo americano fu coronato dal Dottorato in Electrical Engineering, con una tesi su “Synchros as error-measuring devices in servomechanisms”. Ritornò dall’America con un bagaglio di conoscenze assai prezioso nel settore dei controlli automatici, che in quegli anni cominciava ad affrancarsi dai settori più tradizionali dell’ingegneria, e a muovere i primi passi in modo autonomo.
Dal 1953 al 1956 fu in Finmeccanica (Ansaldo San Giorgio, Microlambda, Nuova San Giorgio), come vice capo e poi capo del Centro per lo Studio delle Regolazioni, occupandosi di regolazioni varie e, più in particolare, della trasformazione – da meccaniche in elettroniche – delle centrali di tiro antiaereo. Nel 1956 il tema dei controlli divenne oggetto della Riunione annuale AEI (Trieste), e a Quazza, che partecipò con numerose memorie, venne affidato il compito di relatore generale per la sessione “Servomeccanismi”.
Il Gruppo Edison decise di impegnarsi anche nell’elettronica, e costituì nel 1956 la CEA (Costruzioni Elettroniche e Automatismi), poi divenuta CEA-Perego: Quazza fu chiamato come capo del servizio Sistemi e Ricerche. In questo periodo avviò importanti attività, in un contesto reso particolarmente difficile dall’ampiezza dei problemi e dalla relativa immaturità del mercato. Si dedicò in particolare ai problemi di controllo delle turbine idrauliche e termiche e promosse la realizzazione di un calcolatore digitale per il controllo dei processi. Più personalmente si occupò della regolazione a reattori saturabili di motori asincroni per sollevamento, e sviluppò studi fondamentali sul controllo dei sistemi elettrici interconnessi.
Nel 1964 passò all’Enel – dove rimase fino alla sua tragica fine, nell’agosto 1978 – per costituire il Centro Ricerca di Automatica (Milano), di cui fu direttore sapiente e infaticabile. Il centro arrivò a comprendere circa 200 persone (di cui 70 laureati), impegnate in problemi di automazione, ottimizzazione, teletrasmissione, calcolo automatico. Sotto la sua guida, e grazie alla sua spinta innovativa, le attività del centro toccarono anche momenti di eccellenza, con risonanza internazionale. Personalmente si occupò, in particolare, di modelli dinamici e controllo digitale diretto di caldaie a corpo cilindrico, ripartizione economica dei carichi, controllo centralizzato con calcolatori in linea di sistemi elettrici per l’energia, identificazione statistica. Nel 1977 venne nominato vicedirettore della Direzione centrale Studi e Ricerche dell’Enel.
Nel campo dell’insegnamento universitario, Quazza ottenne nel 1961 la libera docenza in “Controlli automatici” e nel 1968 vinse la cattedra di “Controlli Automatici” (che tenne per alcuni mesi) presso l’Università di Bari. Dal 1971 fu incaricato dell’insegnamento di “Controllo dei processi” presso il Politecnico di Milano. La sua attività didattica-scientifica comprende anche corsi vari – sempre nel campo dei controlli – tenuti al Politecnico di Brooklyn, Politecnico di Torino, Galileo Ferraris, Politecnico di Milano ecc.; oltre a testi su Teoria della regolazione automatica, Introduzione alla ottimizzazione dei processi, Controllo dei processi, numerose pubblicazioni e relazioni a congressi.
Fu Presidente nazionale dell’Anipla, Consigliere dell’AICA e della FAST, e partecipò attivamente – spesso con incarichi di rilievo – ai lavori di AEI, EdF/ENEL, CIGRE, Unipede, JACC, IEEE, PSCC, PICA, IEC, CEI, CNR, ANIE, Accademia dei Lincei. Nell’IFAC fu Vice Chairman del Comitato tecnico “Systems Engineering” dal 1969 al 1972, chairman del comitato tecnico “Applications” dal 1972 al 1975, membro dell’Executive Council dal 1975 e previsto futuro President. In suo ricordo, l’IFAC ha realizzato una speciale medaglia, che viene assegnata ogni 3 anni in occasione del World Congress. Borse di studio per studenti, e premi per la migliore tesi, sono stati istituiti dai Politecnici di Milano e Torino, Anipla e AMMA. A Torino, gli è stato inoltre intitolato l’Istituto per l’Informatica e l’Elettronica – Formazione e ricerca.
[…] Prima di concludere, mi consento – come detto – alcune considerazioni personali.
L’invito a parlare di Giorgio Quazza mi ha commosso e lusingato. Per certi versi mi ha anche sconvolto, facendo riemergere di colpo tanti ricordi di lavoro e di vita. La figura di Quazza sfugge ai canoni normali di classificazione. A fronte di una personalità molto complessa, i suoi atteggiamenti erano di una semplicità disarmante. Amava le cose essenziali, odiava la piaggeria e la doppiezza. Con lui era facile trovarsi spiazzati, se non lo si conosceva a fondo. Era discreto e schivo, fino a sembrare timido: ed invece era fierissimo e – se occorreva – irriducibile, sostenuto da una rara forza interiore, certamente connaturata, ma anche temprata dalle terribili esperienze del tempo di guerra. Seduto alla sua scrivania, in mezzo a tanti quaderni pieni di sue annotazioni – scritte anche molto in piccolo, con una calligrafia molto ordinata -, poteva sembrare un puro studioso, dedito solo all’attività intellettuale: ed invece era anche un vero atleta, agile e scattante, abile calciatore, gran camminatore e validissimo montanaro.
I suoi interessi coprivano anche la sfera del sociale. La sua visione delle cose non era mai banale e scontata. La sua cordialità era misurata nell’esternazione, ma non nella sostanza. Nei rapporti col prossimo non era mai invadente. Nelle discussioni finiva sempre col ‘tener banco’, anche per le sue capacità dialettiche non comuni: ma la sua attenzione per gli altri – e per le idee degli altri – si manifestava in più occasioni, anche nelle più spicciole. Su Quazza, se condivideva un problema o prendeva un impegno, si poteva fare completo affidamento. Era un lavoratore instancabile, esempio limite per tutti. La sua capacità di lavoro era straordinaria, sostenuta da un entusiasmo spesso contagioso.
Ma più in generale, Quazza è stato un “research leader” eccezionale, indiscusso e indiscutibile. Il suo spirito innovativo – spesso lungimirante, e anticipatore – era coinvolgente. Il suo impegno di promozione scientifica e tecnica, anche a livello associativo, è stato ammirato in tutto il mondo. Alcuni suoi lavori sono di importanza e validità assoluta. Fu pioniere anche nell’attività didattica. Termino adesso, con una nota strettamente personale. Ciascuno di noi ha a disposizione i contemporanei che il destino gli ha riservato, e arriva a conoscerne solo una piccolissima parte. Mi ritengo molto fortunato per aver conosciuto Giorgio Quazza, e così da vicino.
(dal discorso di commemorazione di Fabio Saccomanno, Milano, ottobre 2003)



3.3.11 - Carl Adam Petri (1926 – 2010)
Carl Adam Petri è nato a Lipsia e di formazione è un matematico, noto soprattutto per le “Reti di Petri”, un utile strumento da lui inventato e uno degli importanti contributi che lo studioso ha dato alla scienza dell’informazione e del calcolo distribuito. Petri si forma all’Università Tecnica di Amburgo nei primi anni ’50 e già nel 1955 è inviato alla IBM per completare la sua formazione. Sul finire degli anni ’50 diventa assistente prima all’università tecnica di Hannover e poi a quella di Bonn. Assume l’incarico di direttore del Centro Nazionale di Matematica e di Calcolo in Germania, ente che oggi è confluito nell’Istituto Fraunhofer. Lo scienziato si ritirerà nel 1991, conservando tuttavia la carica di professore onorario dell’Università di Amburgo.
Per comprendere meglio l’importanza fondamentale che Petri ha rivestito nell’evoluzione del concetto di parallelismo nel calcolo e nei processi è utile ricordare un episodio accaduto in occasione del premio Pioniere del Computer conferito dallo IEEE a Petri nel 2009. La motivazione del riconoscimento è una buona sintesi dell’opera di questo scienziato: il premio, infatti, gli è stato attribuito “per aver stabilito la teoria di Petri delle reti nel 1962, che non solo è stata citata in centinaia di migliaia di pubblicazioni scientifiche ma è stata anche un significativo passo in avanti nel campo del calcolo parallelo e distribuito”.
Petri, infatti, ha avuto il merito di riconoscere molto presto l’importanza dei sistemi interagenti: prima di lui era pratica comune nello studio dei sistemi complessi che i processi, per essere analizzati, venissero isolati. A prima vista il simbolismo delle reti inventate da Petri può essere confuso con quello dei diagrammi di flusso ma, a differenza di questi ultimi che sono pensati per illustrare processi di tipo sequenziale, le reti di Petri si sviluppano in una dimensione in più, su linee temporali parallele. Le reti di Petri, facili da comprendere per i non esperti e utili anche nell’analisi dei sistemi più complessi, permettono di descrivere topologie sofisticate con un metodo semplice e un formalismo rigoroso e hanno avuto un’importanza fondamentale nell’automazione di processo, nell’informatica e nel settore educativo. Addirittura, per l’industria di processo, esistono degli standard ISO che prevedono che i sistemi siano descritti come reti di Petri. Molti strumenti software commerciali recentissimi, adatti a macchine multiprocessore, utilizzano il formalismo di Petri, che è un riferimento anche nei sistemi ERP per la modello del processo.
Le reti di Petri sono state utilizzate ufficialmente dallo studioso per la prima volta nel 1962, nella sua tesi di dottorato, ma questo utile strumento grafico per lo studio dei processi paralleli era stato ideato ed utilizzato da Carl Adam molto tempo prima, nel 1939, quando a soli 13 anni se ne era servito per descrivere un processo di tipo chimico. Molti degli strumenti pratici e teorici elaborati da Petri possono essere utili, più in generale, nell’elaborazione di modelli per processi paralleli, descrivendo la comunicazione e l’interazione tra le componenti del processo stesso.
Una rete di Petri è un grafo i cui nodi possono rappresentare dei posti (illustrati come dei cerchi) o delle transizioni (rappresentate come rettangoli). Gli archi sono i segmenti che uniscono i nodi e si differenziano in archi di input, che uniscono i nodi di tipo posto con quelli di tipo transizione, e gli archi di output, che invece uniscono i nodi transizione con quelli posto. Nelle reti di Petri non sono ammessi collegamenti tra nodi dello stesso tipo (posto-posto o transizioni-transizioni). Lo stato della rete è rappresentato collocando dei segnali o marche (token) nei nodi che rappresentano un posto. Il token indica lo stato di avanzamento del processo e quando viene rimosso passa al posto successivo. Il numero di token totali, rimossi e inseriti dipende dal tipo di rete e dal numero di processi paralleli che la definiscono. In ultima analisi: un intuitivo sistema che permette di visualizzare i processi paralleli e di rendere in forma grafica i problemi di sincronizzazione.
(da un articolo di Jacopo di Blasio, Automazione e Strumentazione, novembre 2009)

3.3.12 - Antonio Ruberti (1927 - 2000)
Dopo la laurea in ingegneria, opera come ricercatore della Fondazione Ugo Bordoni dal 1954 al 1962. Diventa libero docente di Controlli Automatici nel 1960 e quindi Assistente ordinario presso l’Università di Roma “La Sapienza” dal 1962 al 1964 e successivamente Professore ordinario in tale Università dal 1964 prima di Controlli Automatici e poi di Teoria dei Sistemi.
In questo periodo svolge ricerche nel campo dei controlli automatici (sulla stabilità, sui sistemi a dati campionati, sul controllo a frequenza variabile dei motori asincroni), nel campo dei calcolatori analogici (sui generatori di funzioni di due variabili e sui generatori di rumore), nella teoria dei sistemi (sull’identificazione della dimensione dello spazio di stato ridotto dalla risposta impulsiva, sulle proprietà strutturali e sulla decomposizione dei sistemi lineari e non lineari, sulle condizioni di esistenza di rappresentazioni con lo spazio di stato).
Nel 1969 promuove la creazione dell’Istituto di Automatica (oggi Dipartimento di Informatica e Sistemistica) e ancora nel 1969 del Centro di Studio del CNR sui Sistemi di Controllo e Calcolo Automatico (poi Istituto di Analisi dei Sistemi ed Informatica), dei quali sarà direttore rispettivamente fino al 1976 e al 1980. Entrambi sono divenuti centri di ricerca di primo piano, sede di scambi internazionali e punti di riferimento per la ricerca nei settori della sistemistica, dell’automatica e dell’informatica.
Dal 1973 al 1976 è Preside della Facoltà di Ingegneria sempre nella medesima Università e dal 1976 al 1987 assumerà la prestigiosa carica di Rettore. In tale veste promuove e coordina le attività dell’Ateneo, prima fronteggiando l’emergenza del terrorismo con fermezza ma senza mai rinunciare alle libertà democratiche, poi rilanciando l’immagine e la funzionalità dell’Ateneo.
Durante la X legislatura è dapprima Ministro per il coordinamento della Ricerca Scientifica e Tecnologica (1987-1989) e poi dell’Università e della Ricerca (1989-1992). Nel corso di questi mandati viene approvato con apposite leggi un programma di riforma che riguarda gli ordinamenti didattici, il diritto allo studio, il finanziamento delle università non statali, la programmazione universitaria, la istituzione dell’Agenzia Spaziale, il finanziamento della ricerca industriale, il programma Antartide, la diffusione della cultura scientifica.
Dal 1992 al 2000 è Deputato al Parlamento e per un triennio Commissario dell’Unione Europea per la Scienza, Ricerca e Sviluppo, Educazione; durante questo mandato viene istituita l’Assemblea Europea della Scienza e della Tecnologia, e vengono varati i nuovi programmi per l’istruzione (Socrates), per la formazione professionale (Leonardo da Vinci), per il Centro e l’Est d’Europa (Tempus). Su sua proposta, nell’ottobre 1996, la Conferenza delle Commissioni specializzate per gli affari europei approva di garantire ai Parlamenti un tempo utile per discutere con gli esecutivi le proposte che i governi stessi avrebbero poi esaminato nelle istituzioni europee: la proposta diventerà parte integrante del protocollo allegato al Trattato di Amsterdam.
Nella sua carriera scientifica Ruberti ha pubblicato circa 80 lavori scientifici sul controllo automatico e sulla teoria dei sistemi, in particolare sulle proprietà strutturali dei sistemi dinamici lineari a coefficienti variabili e bilineari, nonché testi su Controlli automatici e Teoria dei sistemi. Oltre a questi, ha pubblicato numerosi saggi ed articoli sulla politica della ricerca e dell’istruzione nonché sui problemi dell’innovazione tecnologica. Ha curato due libri: Tecnologia domani (1985) e Europa a confronto (1990) ed è coautore (con Michel Andrè) del volume Un espace europèen de la science (Rèflexion sur la politique europèenne).
Ha ricevuto numerosi riconoscimenti internazionali, tra i quali: la Legion d’honneur, la nomina a Fellow IEEE, il premio Europeo Leonardo, la laurea honoris causa in Scienze Applicate dell’Università di Lovanio.


3.3.13 - Rudolf Emil Kalman (1930 – )
Rudolf Emil Kalman nasce a Budapest, e ha modo di entrare molto presto in contatto con il mondo della tecnologia: suo padre era infatti un ingegnere elettrotecnico. Presto il giovane Kalman decide di seguire le orme del padre e, dopo essersi trasferito negli Stati Uniti, prosegue i suoi studi in ingegneria elettrica al MIT e li completa alla Columbia University.
Dal 1957 al 1958 lavora come tecnico nell’equipe dell’IBM Reserch Laboratory a Poughkeepsie, nello Stato di New York. In questo il periodo Kalman comincia a sviluppare alcune delle sue idee in merito ai sistemi di controllo basati su modelli lineari che utilizzano dati raccolti e trattati per mezzo di algoritmi che si avvalgono di processi statistici; un lavoro che si inquadra nell’ambito della teoria per l’analisi dei sistemi di controllo. In questi anni, precorrendo i tempi, intuisce anche l’importanza che i computer digitali sono destinati ad avere per l’elaborazione di grandi moli di dati e per la risoluzione di sistemi algebricamente complessi.
Nel 1958 Kalman entra nel Rias, Research Institute for Advanced Study, di cui in seguito diverrà Direttore Associato per la Ricerca. Questo è il periodo in cui lo scienziato mette a punto il “filtro di Kalman”, sicuramente il suo contributo più noto all’elettronica e alla teoria dei sistemi. Una delle più conosciute e precoci applicazioni del Filtro di Kalman è stata nei computer che dovevano elaborare ed estrapolare le traiettorie delle capsule del programma Apollo della Nasa.
Un’applicazione tipica del Filtro di Kalman, infatti, può essere nel fornire informazioni precise e aggiornate con frequenza sulla posizione e sulla velocità di un oggetto, in base ad una sequenza di osservazioni sulla sua posizione, ognuna delle quali comprendente un certo errore. In pratica, il filtro di Kalman è un algoritmo ricorsivo, efficiente dal punto di vista computazionale, che consente di valutare i dati, facendo un’elaborazione statistica basata sul valore predetto e quello stimato. Per l’applicazione di questo algoritmo è necessario disporre di una serie di misure che consenta di effettuare una stima e di un modello matematico lineare che, entro certi limiti, sia descrittivo del sistema stesso. È stato durante una visita di Rudolf Kalman al centro di ricerca Ames, dell’Ente Aerospaziale Americano, che lo scienziato aveva compreso la possibilità di applicare le sue idee al problema della stima del calcolo delle traiettorie dei velivoli spaziali.
Oggi il Filtro di Kalman è applicato in una varietà di settori che va dall’elettronica alla teoria dei sistemi e del controllo. Può essere utilizzato da generatori di segnali ad alta frequenza, per sintonizzare con precisione i circuiti oscillatori, o può trovare applicazione nei generatori di clock dei computer, nei sistemi radio FM e, in generale, nel controllo dei sistemi retroazionati.
Il Filtro di Kalman, come le sue più recenti estensioni ai problemi non lineari, continua ad avere un’ampia diffusione e, di recente, è stato utilizzato negli algoritmi di inseguimento dei bersagli nei sistemi antimissile, nel controllo di processo e, addirittura, nello studio di sistemi socio-economici. In particolare l’algoritmo di Kalman consente di valutare in modo più preciso i dati provenienti da fonti diverse (ad esempio sensori) con diversi tipi di rumore che, in base al tempo o alla frequenza, incidono in modo diverso sull’accuratezza della misura.
Nel 1964 Kalman approda alla Stanford University, dove conseguirà importanti obiettivi nell’ambito della ricerca di base nel settore della teoria dei sistemi algebrici. Kalman è stato inoltre professore di Teoria dei Sistemi all’Università della Florida, consulente per il centro di ricerca dell’Ecole des Mines de Paris e docente all’Istituto Tecnico Federale di Zurigo (1973).
È autore di oltre cinquanta articoli scientifici e coautore del libro Topic in Mathematical System Theory. La vastità dell’influenza che il suo lavoro ha avuto su altri ricercatori è tale da essere difficilmente calcolabile: le citazioni dei suoi articoli nella letteratura scientifica sono innumerevoli. Nel 1974 Kalman ha ricevuto la Medaglia d’Onore dello IEEE per il suo lavoro che ha reso possibili i moderni metodi di teoria dei sistemi, inclusi gli strumenti e i concetti di filtro, strutture algebriche, controllabilità e osservabilità. Successivamente ha ottenuto il premio Kyoto dell’Alta Tecnologia, il premio Steele della American Mathematical Society, il premio Bellman e nel 2008 la National Medal of Science statunitense.


3.4 - Associazioni e Fiere
3.4.1 - Associazioni
3.4.1.1 - AIS-ISA Italy Section

A.I.S. ed ISA Italy Section si propongono come punto di riferimento per tutti coloro che sono impegnati nel multiforme campo della strumentazione, del controllo e dell’automazione. Sono associazioni culturali senza fine di lucro, che hanno come comune obiettivo principale la promozione della tecnologia, il supporto agli specialisti impegnati nel settore e la divulgazione presso i giovani, studenti e non, degli aspetti del mondo dell’automazione.
La loro storia risale al secondo dopoguerra quando, con l’implementazione del piano Marshall di aiuti alla ricostruzione in Italia e con il formarsi di molte filiali Italiane di società Americane, i tecnici Italiani hanno sentito la necessità di poter attingere al patrimonio culturale e tecnico generato dalla ISA (Instrument Society of America), costituitasi già nel 1945, per poter comprendere la documentazione in arrivo da oltre Atlantico e poter sviluppare le proprie conoscenze e competenze utilizzando l’enorme cammino già svolto dai colleghi americani.
L’Italia era nel pieno della ricostruzione e quindi richiedeva un sempre maggior numero di tecnici preparati. La scuola non era in grado di fornire una risposta adeguata e quindi in quel periodo le grosse aziende come la Montecatini avevano organizzato corsi interni dedicati ai propri dipendenti, mentre i rappresentanti italiani di aziende americane di strumentazione erano in grado di offrire ai propri clienti corsi di strumentazione di base e avanzata, riguardanti magari aspetti specifici, quali il blending di prodotti petroliferi. Si possono ricordare Gavazzi (Honeywell), Smeri (Foxboro), Castellazzo (Taylor) e altri che hanno cercato di rispondere, in maniera meritoria, all’enorme richiesta di formazione dell’epoca.
La via sovrana, al di sopra delle specifiche culture aziendali, era comunque quella dell’associazionismo che ebbe negli anni ’60 e ’70 il suo periodo d’oro e consentì a tutti di confrontarsi liberamente e apportare le proprie esperienze.
Per questo motivo, nel 1960 un gruppo di Strumentisti, soci ISA a titolo individuale, vide un’opportunità irripetibile nell’organizzarsi a livello di gruppo per diffondere la cultura della strumentazione e decise di dar vita a un’associazione italiana legata all’ISA Questa decisione il 30 luglio 1962 sfociò nella costituzione di un ISA Club che ottenne l’ambito “Charter”, il primo ad essere concesso a un gruppo di soci al di fuori degli Stati Uniti. Esso si sviluppò, contribuendo a formare la professionalità del tecnico strumentista, divulgando normative già sviluppate negli Stati Uniti, producendo letteratura di alto livello tecnico e dedicandosi anche alle problematiche riguardanti la manutenzione.
Nel 1976, allorché l’ISA divenne ufficialmente internazionale, maturando l’esigenza di creare Sezioni Nazionali anche al di fuori degli Stati Uniti e Canada, l’ISA Club ricevette il “Charter” di “ISA Italy Section”.
Continuarono e si intensificarono le attività di organizzazione di riunioni per implementare la collaborazione alla creazione di nuove raccomandazioni per l’impiego di strumentazione, alla realizzazione di giornate di studio, allo sviluppo di corsi di formazione. Alcuni professionisti Italiani cominciarono a far parte del Direttivo che governa l’ISA.
Il 28 aprile 1977 è stata costituita la AIS – Associazione Italiana Strumentisti, per dare una connotazione nazionale a una associazione di tecnici della strumentazione e favorire nel contempo gli strumentisti con limitato interesse ad accedere direttamente al know how americano, contrassegnato da problemi di lingua. Attualmente AIS ha circa 300 soci, tra collettivi, individuali e sostenitori.
ISA Italy Section e AIS hanno sempre avuto uno strettissimo legame dovuto alla dedizione di molte persone che si sono alternate negli incarichi direttivi delle due Associazioni, per cementare una fruttuosa collaborazione durata per tutti i trentasette anni di vita dell’AIS. Questo modo di operare in simbiosi fra le due associazioni è divenuto un esempio costruttivo e propositivo per tutte le altre Sezioni che andavano formandosi al di fuori degli Stati Uniti e Canada.
La sede delle due associazioni è a Milano, in viale Campania, ma entrambe sono presenti con delegazioni zonali in altre città italiane (Liguria, Roma e Veneto) per assicurare un contatto più efficace con le realtà locali e meglio raggiungere le esigenze specifiche dei soci. ISA Italy Section ha due sezioni studenti a Catania e Genova. Tutte sono attive nello sviluppare un interessante punto di contatto tra il mondo industriale e quello universitario.
Le associazioni hanno il comune programma di consolidare le attività di analisi e divulgazione delle nuove tecnologie emergenti e delle modifiche delle normative attraverso giornate di studio, tavole rotonde e seminari rivolti a fornire, oltre ad una presentazione rigorosa degli argomenti, spunti operativi di diretto utilizzo da parte dei partecipanti. Queste attività sono rivolte a soci individuali (professionisti del settore di strumentazione, automazione e controllo), soci collettivi (società di ingegneria, produttori di strumentazione e sistemi di controllo, aziende industriali) e studenti.


3.4.1.2 -ANIE Automazione

Federazione ANIE, aderente a Confindustria, rappresenta le imprese elettrotecniche ed elettroniche che operano in Italia. Attraverso le Associazioni che la compongono, riunisce comparti strategici dell’industria italiana, ad elevata innovazione e fortemente globalizzati, che contribuiscono alla crescita del Sistema Paese e al suo successo sui mercati internazionali.
ANIE nasce come Associazione Nazionale Industrie Elettrotecniche nel 1945, nel periodo della ricostruzione e della rinascita associativa del dopoguerra, con l’obiettivo di divenire un «elemento di fusione fra gli industriali associati i quali devono trovare in essa lo strumento per far conoscere i loro problemi tecnici ed economici nel nostro paese e all’estero». Nel gennaio 1948 esce il primo numero della rivista Industria Italiana Elettrotecnica, organo ufficiale ANIE.
Nel volume “Sessant’anni di associazionismo imprenditoriale. Anie e la trasformazione dell’Italia industriale”, Fabio Lavista così sintetizza le tre fasi che hanno senato altrettante cesure nella vicenda storica di ANIE.
«Innanzitutto il periodo della Ricostruzione, quello che vide la costituzione dell’associazione e durante il quale essa esercitò un ruolo determinante nei processi di riconversione e ristrutturazione post bellica. in virtù della autorevolezza che essa era in grado di affermare sul piano tecnico, ma anche grazie alle pressioni politiche che essa riuscì a esercitare sia per la capacità della sua dirigenza e la rete di relazioni che essa costruì sia per il peso che il settore rivestiva in quei frangente e, più in generale per la consonanza di vedute esistente in quegli anni tra gli organismi di rappresentanza imprenditoriale e i coevi governi centristi.
La fase successiva è quella che cominciò negli anni ’60, dopo la fine del miracolo economico e che si protrasse per tutti gli anni ’70, quando dopo una forte trasformazione e crescita del perimetro associativo di ANIE, eredità dello stesso boom economico, si aprì un periodo di profonda crisi dell’intero settore, sia per via della difficile congiuntura internazionale, sia per l’acuirsi a livello locale dello scontro sociale, sia. infine per la mancanza, specie nei settori a più elevato contenuto tecnologico, di adeguate politiche industriali di sostegno e di sviluppo. Una crisi economica che fu anche una crisi della rappresentanza, che ebbe conseguenze rilevanti sul sistema confederale, almeno a livello di dibattito interno, sia al centro, sia alla periferia.
L’ultima fase considerata inizia con gli anni ‘80 durante i quali si assistette a una lenta e difficile fuoriuscita dalla crisi, in una situazione complicala dall’acuirsi della concorrenza internazionale, dalla crescita dell’investimento estero in Italia, dalla progressiva integrazione dei mercati e dalle crescenti difficoltà incontrate dalle imprese nazionali nel farvi fronte, soprattutto per via delle loro ridotte dimensioni in settori che vedevano l’affermarsi di colossi multinazionali. Situazione che non mancò di avere ripercussioni anche sull’associazione che fu portata a rivedere la sua strategia di rappresentanza e a mettere in atto una profonda trasformazione organizzativa, attraverso il passaggio da semplice associazione di categoria aderente a Confindustria a quello di federazione nazionale di settore».
Il 23 gennaio 1996, dopo un processo di revisione durato qualche anno, viene ufficializzata la trasformazione di ANIE in Federazione nazionale per il settore elettrotecnico ed elettronico.
ANIE oggi
ANIE rappresenta oggi un interlocutore attivo e riconosciuto degli stakeholder che influenzano la politica delle infrastrutture in Italia e all’estero, contribuisce allo sviluppo del mercato delle imprese elettrotecniche ed elettroniche operando per assicurare regole trasparenti. Attraverso un’intensa attività di lobby rivolta alle istituzioni nazionali e comunitarie, l’azione associativa è diretta alla promozione e al rafforzamento dei valori imprenditoriali, promuovendone le capacità di sviluppo nel perseguimento degli interessi generali del Paese.
La Federazione è un luogo di incontro privilegiato per le aziende socie, offrendo opportunità di confronto continuo sui temi di maggiore interesse per la crescita delle imprese e il loro successo sui mercati.
La struttura organizzativa della Federazione fa capo alla Direzione Generale e si articola in 4 Aree e 3 Servizi Centrali. Federazione ANIE riunisce 11 Associazioni rappresentative dei diversi comparti industriali dell’elettrotecnica e dell’elettronica. Tra queste c’è ANIE Automazione che, attraverso i suoi Gruppi rappresenta, sostiene e tutela le aziende operanti nei seguenti comparti merceologici:
Automazione di processo,
Azionamenti elettrici,
Componenti e Tecnologie per la misura e il controllo,
HMI-IPC-Scada,
Meccatronica,
PLC-I/O,
Telecontrollo, Supervisione e Automazione delle Reti,
Telematica applicata a Traffico e Trasporti,
UPS – Gruppi Statici di Continuità.
ANIE Automazione promuove, organizza e cura direttamente analisi di mercato mirate al settore. Pubblica inoltre, con cadenza annuale, un volume sull’evoluzione della tecnologia e sul mercato globale di settore. L’Associazione cura eventi, fiere e convegni; organizza corsi di formazione; realizza documenti rivolti a progettisti, installatori, operatori ed utenti, per lo sviluppo qualitativo del mercato.
ANIE Automazione è sinonimo di:
monitoraggio dell’andamento e dell’evoluzione del mercato mediante raccolta ed elaborazione dei dati statistici riguardanti il settore e le sue segmentazioni;
sostegno della competitività del settore e rappresentazione degli interessi delle imprese nei rapporti con enti istituzionali nazionali ed europei e mondo accademico;
presidio e promozione dello sviluppo dei temi tecnologici e di mercato propri del settore;
contributo alla definizione della normativa tecnica in ambito nazionale e internazionale.



3.4.1.3 - ANIMP

Nel 2013 ANIMP ha festeggiato il suo 40° anno di attività e il 25° anno dalla nascita della rivista Impiantistica Italiana e continua a crescere animata dallo spirito innovatore dei suoi fondatori. L’Associazione Nazionale Impiantistica Industriale nasce a Milano nei primi anni ’70 su iniziativa di alcuni docenti universitari e manager aziendali, come ponte tra mondo industriale e accademico per rispondere alle esigenze di un settore in rapida crescita. Sviluppo economico, espansione della grande industria, informatizzazione e introduzione di nuove pratiche lavorative richiedono una visione integrata, per una gestione di progetti complessi, efficiente e di qualità.
Dal 1973 ogni anno, il Convegno nazionale è occasione per la Filiera Impiantistica di riunirsi e fare il punto sullo stato del settore in relazione al contesto economico del Paese e in rapporto ai competitor internazionali.
I primi presidenti pongono le basi per il futuro percorso di ANIMP, definendo le direttrici in cui si articola ancora oggi l’attività dell’Associazione.
Formazione
Con il successo del primo corso di formazione sul Project Management, organizzato nel 1986, prende forma l’integrazione tra ricerca, innovatrice per natura, ed esigenze dell’industria. L’approccio interattivo dei corsi ANIMP si approfondisce via via con il I Corso sul Proposal Management, del 1987, e con l’organizzazione di corsi ad hoc sulle funzioni strategiche per le aziende del settore.
Nel 2004 in collaborazione con il MIP, ANIMP organizza il MEC (Master in Engineering & Contracting), per colmare il divario tra preparazione accademica e competenze richieste dalle imprese e favorire l’inserimento degli studenti nel mondo lavorativo.
Project Management
L’impegno di ANIMP per la diffusione del Project Management si consolida in tre tappe di rilievo internazionale:
– con il Convegno di Firenze del 1992 il Project Management si afferma come metodo per il successo dei progetti;
– nel 2000 Animp aderisce a Ipma International e ottiene l’esclusiva per la Certificazione IPMA dei Project Manager sul territorio nazionale;
– nel 2008 ANIMP organizza a Roma il XXII Ipma World Congress, dal titolo Project Management To Run.
Editoria
Dal 1988 la rivista bimestrale di Impiantistica Italiana racconta l’ingegneria, tratta argomenti relativi alla progettazione e realizzazione degli impianti, le dinamiche tra l’andamento del settore e il contesto economico e sociale.
ANIMP prende in gestione la rivista nel 1996 e la rilancia dopo un periodo di crisi editoriale, mentre dal 2004 l’Associazione si apre al mondo con la pubblicazione di Industrial Plants, numero annuale in inglese della rivista, distribuito nelle maggiori fiere internazionali.


3.4.1.4 - ANIPLA

L’ANIPLA (Associazione Nazionale Italiana Per L’Automazione) è stata costituita il 20 febbraio 1956. Così ne ha tratteggiato gli inizi e le finalità Girolamo Mezzalira, uno dei testimoni diretti di quelle origini.
«Negli anni ’50 si introduce nella nostra lingua il termine “automazione” italianizzando 1’automation” proveniente dagli Usa, anche sull’onda della rivista americana “Automation and Instrumentation”. L’automazione si proponeva come una nuova disciplina tecnico applicativa, un nuovo modo di governare i processi. I tecnici e i cattedratici interessati a questo filone della attività tecnica pensarono di incontrarsi in un terreno neutro costituendosi in una associazione culturale. Questo avvenne in Milano il 20 febbraio 1956 con rogito del dr. Pietro Nasser, che dava vita alla Associazione Nazionale Italiana Per L’Automazione – ANIPLA. Il fondatore è stato l’ing. Carlo Rossi, presidente dell’Uni, in accordo con altri studiosi.
[…] Anche l’Anipla mette l’accento sul fatto di essere associazione tecnico culturale. Dopo 30 anni di vita, rileggendo l’articolo 2 del suo statuto e ripercorrendo l’attività svolta in questo dinamico periodo, si ha la conferma della fedeltà agli inizi associativi.
“Art.2. L’associazione, esclusa ogni finalità di lucro, si propone di promuovere e favorire in Italia la conoscenza, lo studio e l’applicazione dell’automazione, considerata nei suoi diversi aspetti: tecnologico, economico e sociale”.
“Per raggiungere tali scopi l’Anipla promuoverà riunioni, conferenze, congressi, pubblicazioni; curerà la diffusione di notizie e di informazioni; favorirà ogni altra iniziativa atta a stimolare la ricerca e la diffusione della conoscenza e delle applicazioni dell’automazione. Costituirà nel suo seno un Centro di documentazione al servizio dei propri soci, curerà la pubblicazione di un proprio periodico e stringerà rapporti di collaborazione con le Associazioni affini italiane e straniere”.
Fin dai primi tempi si affrontò il problema dell’organo ufficiale. In quegli anni c’era la ricordata rivista Misure e regolazioni e la rivista Automazione e Automatismi appena fondata dal prof. Teani. Con un accordo con l’editore, la rivista Misure e Regolazioni prese il nome di Automazione e Strumentazione e divenne l’organo ufficiale dell’Anipla.
Per rispondere ai fini statutari si doveva dare il via ad altre iniziative culturali. Si pensò di cominciare dai corsi di aggiornamento e formazione. Si fece un primo accordo col politecnico di Milano per una attività congiunta. Vanno ricordati i corsi del 1957 e 1958.
Quando il Politecnico scelse una gestione autonoma, che sfocerà poi nei numerosi Corsi di formazione permanente, l’Anipla si appoggiò alla scuola per strumentisti della Montecatini. Successivamente si passò ai corsi in Fast e infine venne costituito l’Emit/Las, tuttora guidato da un direttivo cui partecipano tre membri Anipla. Iniziarono poi i Convegni annuali Anipla. Questi convegni si intrecciano con il Bias e si sono dimostrati una assise di grande importanza per la promozione del “fenomeno automazione” in tutti i campi tecnici e socioeconomici. Seminari, Giornate di studio, visite tecniche, conferenze sono state altri validi canali di promozione culturale realizzati dalle varie sezioni dell’Anipla.
Avendo subito riconosciuto che l’automazione è fortemente interdisciplinare, molte iniziative culturali sono state studiate e realizzate con altre associazioni tecnico scientifiche, con un benefico effetto di sinergismo. L’Anipla estende il suo interesse nel campo sociale; è forse l’unica associazione tecnica che esprime nello statuto e nelle attività, la volontà di occuparsi dei problemi sociali, diciamo meglio dei problemi umani. È in questo in sintonia con l’odierno orientamento verso l’unità della cultura, verso un nuovo umanesimo in cui scienza e tecnica sono poste a fondamento della crescita dell’uomo».
La struttura oggi
L’ANIPLA è organizzata sulla base di Sezioni territoriali, che operano nell’ambito geografico su cui hanno competenza con autonomia gestionale e amministrativa, nei limiti previsti dallo Statuto. Attualmente, sono attive e operanti le sezioni di Milano, Palermo, Torino. Alla Struttura nazionale, con sede a Milano, sono demandate le attività di interesse più generale; ad essa spetta inoltre il coordinamento delle Sezioni territoriali. Ciascuna sezione è retta da un Consiglio Direttivo, eletto dall’assemblea dei Soci, che resta in carica per un bienno. La struttura centrale è anch’essa retta da un organo collegiale – il Consiglio Generale – composto dai Presidenti delle Sezioni stesse. Durata del mandato e scadenza coincidono con quelle delle Sezioni. L’ANIPLA è uno dei membri della FAST (Federazione delle Associazioni Scientifiche e Tecniche).
Le varie sezioni territoriali in cui l’ANIPLA è strutturata organizzano in piena autonomia amministrativa varie manifestazioni culturali per i soci. Ecco una lista delle principali attività:
– Convegni Nazionali annuali con varie tematiche e seminari (consulta le informazioni aggiornate sul prossimo convegno nazionale);
– Giornate di studio con più relazioni su un tema specifico;
– Conferenze con presentazione di un singolo argomento;
– Corsi di formazione ed aggiornamento;
– Visite a laboratori, centro di addestramento e collaudo, stabilimenti.
Rivista ufficiale è tuttora il mensile Automazione e Strumentazione, edito da Fiera Milano Media.



3.4.1.5 - GISI

GISI Associazione Imprese Italiane di Strumentazione è l’Associazione di categoria senza scopo di lucro che riunisce le imprese di strumentazione ed automazione italiane. Fondata presso la sede della Kent-Tieghi nel 1974, vide da subito l’adesione delle 35 primarie aziende di strumentazione del tempo, con l’obiettivo di diventare un punto di riferimento per gli operatori delle aziende di produzione di strumentazione e quindi degli utilizzatori.
È sempre Girolamo Mezzalira che, avendo partecipato a quegli eventi, ne racconta la nascita: «Nella primavera del 1974 una ventina di uomini di varie società, impegnati nella strumentazione, si riunì presso un collega. All’ordine del giorno venne posto l’esame dei problemi che quotidianamente le società strumentistiche incontrano nel campo tecnico, economico, finanziario e gestionale e che sono comuni a tutte le aziende di uno stesso comparto economico. Una associazione di categoria fra ditte strumentistiche – pensarono – può dare regole precise e comuni di comportamento come riescono ad ottenere imprenditori di altri campi.
L’idea diede subito il via ad un comitato ristretto con l’incarico di definire gli scopi di una associazione di categoria e di prepararne lo statuto. Si individuarono quattro settori di attività relative alle aziende operanti in Italia. Provvisoriamente ciascun settore fu affidato ad un incaricato.
Come pionieri e fondatori della nuova associazione ricordiamo:
– costruttori di strumentazione industriale a carattere nazionale, dr.Eraldo Tieghi;
– costruttori di strumentazione industriale a carattere multinazionale, ing. Clemente Piolini;
– operatori nel settore della strumentazione industriale a carattere nazionale, ing.Capellano;
– operatori nel settore della strumentazione industriale a carattere multinazionale; dr.L. Baldassini.
Nella successiva riunione del 20 giugno 1974 vennero definiti scopi e modalità della associazione degli operatori in Italia nel campo della strumentazione che fu denominata GISI – Gruppo Imprese Strumentazione Italia».
In breve tempo le aziende associate crebbero diventando 66 nel 1977 (anno in cui viene pubblicato il primo numero dell’Annuario GISI), per arrivare a circa 380 nel 2008 e consolidarsi agli oltre 230 di oggi. Il momento di crisi, iniziato appunto nel 2008, ha visto la fusione o l’accorpamento di molte delle aziende associate, facendone decrescere il numero dei soci effettivi.
I soci GISI sono aziende che operano nel mercato italiano di strumentazione (di misura e controllo) e automazione industriale dei settori manifatturiero, di processo e di laboratorio. Sono quindi costruttori nazionali o sedi locali di società commerciali internazionali, nonché società di servizio quali integratori di sistemi e gestori di manutenzione. Si tratta in prevalenza aziende medio piccole, ma non mancano le realtà più blasonate e leader di mercato. Per definizione statutaria, i soci hanno pari dignità indipendentemente dalla dimensione o dal fatturato generato; questa caratteristica consente un apprezzamento realistico del mercato rappresentato e delle esigenze più stringenti.
GISI, collabora con gli enti di normazione italiani (CEI, UNI … ) partecipando ai lavori dei diversi comitati tecnici di interesse attraverso gli specialisti delle aziende associate. Le competenze acquisite ricadono poi su tutti i soci tramite incontri a tema organizzati dall’associazione.
GISI svolge annualmente un’interessante Osservatorio quali-quantitativo sull’andamento del mercato e dei prodotti che lo caratterizzano.
Per rispondere alle esigenze di formazione rivolta ai tecnici operanti nel mercato, nel 1990 GISI, tramite la controllata Gisiservizi srl, diviene editore tecnico ideando la il collana I quaderni del GISI e pubblicando il primo volume dal titolo “Sensori e trasduttori”, a cura di Alessandro Brunelli. Ad oggi ha pubblicato 9 volumi tecnici, con edizioni costantemente aggiornate. Ricordiamo solo le ultime due opere pubblicate: nel 2008 Misure industriali fisiche e meccaniche e nel 2012 Manuale di taratura degli strumenti di misura. Nel dicembre 1990 nasce la rivista trimestrale GISI Controllo di Processo, che nel 2001 verrà integrata nella testata Automazione e Strumentazione.
Nel 2011 lo statuto viene profondamente rinnovato e viene confermata la qualifica del GISI come Associazione Imprese Italiane di Strumentazione.
Nel 2013, viene fondata la rivista tecnica Controllo e Misura dedicata a tutti gli utilizzatori, costruttori e progettisti di sistemi strumentati ed automatizzati. La rivista cartacea bimestrale si alterna ad un moderno web-magazine per offrire ai propri lettori lo stato dell’arte dei prodotti e delle aziende che caratterizzano il mercato italiano.



3.4.1.6 - IFAC

Nel settembre 1956 l’associazione tedesca VDI/VDE-Fachgruppe Regelungstechnik organizza una Conferenza internazionale sul controllo automatico a Heidelberg. In quell’occasione 30 partecipanti, tra i quali l’italiano Giuseppe Evangelisti, firmano una dichiarazione in cui viene chiaramente definita la necessità di creare un’organizzazione internazionale del controllo automatico. I firmatari si impegnano a promuovere la formazione di organizzazioni nazionali, se già non esistenti. Al termine della Conferenza viene istituito un Comitato provvisorio, sotto la presidenza di Victor Broida (Francia), col compito di redigere una costituzione per la International Federation of Automatic Control (IFAC).
Il 12 settembre 1957, viene convocata a Parigi la Prima Assemblea Generale costituente presso il Conservatoire National des Arts et Métiers sotto la presidenza di Broida. I delegati, provenienti da 18 paesi e rappresentanti le rispettive organizzazioni nazionali riuniti, votano la Costituzione e lo Statuto, eleggono il primo presidente, Harold Chestnut, e i membri del Consiglio Direttivo. Nel corso di questi anni IFAC avrà venti presidenti, tra i quali l’italiano Alberto Isidori per il triennio 2008-2011.
L’IFAC si qualifica come una federazione multinazionale organizzazioni nazionali, ognuna rappresentante le società scientifiche e di ingegneria che si occupano di controllo automatico nel proprio paese. Lo scopo della Federazione è quello di promuovere la scienza e la tecnologia del controllo, nel senso più ampio, in tutti i sistemi appartenenti ai campi dell’ingegneria, della fisica, della biologica, ma anche sociale o economico, sia a livello della teoria che delle applicazioni; si occupato anche dell’impatto della tecnologia del controllo sulla società. Per promuovere tali obiettivi, mantiene rapporti di collaborazione con altre organizzazioni, nazionali o internazionali, in particolare con altre federazioni professionali non governative.
IFAC fornisce un quadro di riferimento per la collaborazione tra chi opera nel controllo automatico e nell’ingegneria dei sistemi, senza distinzione di razza, credo, colore, posizione geografica, e promuove il libero scambio di idee e di esperti all’interno dei rispettivi campi professionali.
Questi scopi sono perseguiti attraverso l’organizzazione di riunioni tecniche, la diffusione di pubblicazioni e di qualsiasi altro strumento coerente con la sua costituzione, al fine di potenziare lo scambio e la circolazione delle informazioni sulle attività di controllo automatico.
Informazioni sulle attività sono disponibili sulla homepage del website IFAC e sulla IFAC Newsletter; riviste ufficiali di IFAC sono Automatica, Control Engineering Practice, Annual Reviews in Control, Journal of Process Control, Engineering Applications of Artificial Intelligence, e il Journal of Mechatronics, pubblicate dalla casa editrice Elsevier Science Ltd.
Ogni tre anni si svolge il Congresso Internazionale; nel 2011 il congresso ha avuto sede a Milano, con chairman il prof. Sergio Bittanti del Politecnico di Milano.
Dal 1978 la segreteria di IFAC ha una sede permanente a Laxenburg, presso Vienna.



3.4.1.7 - ISA

L’Associazione ISA nasce come Instrument Society of America il 28 aprile 1945 a Pittsburgh (Pennsylvania) come risposta a una sentita esigenza di riunire gli specialisti del settore che la guerra aveva disperso e a parecchi dei quali non aveva consentito un aggiornamento professionale. D’altro canto proprio per motivi bellici la tecnologia aveva avuto un enorme impulso e nuove apparecchiature erano state inventate e nuove applicazioni erano state provate e introdotte nella costruzione degli impianti.
Da queste premesse il grande attivismo della nuova associazione, sfociato nella emissione di standard e recommended practices, nell’organizzazione di corsi e di mostre. Già nel 1946, sotto la presidenza di Albert F. Sperry, si tiene sempre a Pittsburg il primo convegno-mostra mentre la prima edizione di quello che ancor oggi è noto come ISA show viene organizzata a Houston nel 1951.
Il primo standard emesso, nel 1949, è stato R.P.5.1 – Instrument Flow Plan Symbols, ben noto a tutti gli strumentisti e che ha costituito un elemento unificante di comprensione dei PID per tutti gli addetti ai lavori. Questo standard e molti altri sono poi stati fatti propri dall’ANSI (American National Standard Institute) a riprova del grande valore tecnico-scientifico riconosciuto all’Associazione. Un altro dei primi standard diventati ANSI è quello relativo alle f.e.m. delle termocoppie.
La prima rivista, quella che poi diventerà l’odierna InTech, viene pubblicata nel 1954.
Nell’anno 2000 l’ISA diventa “Instrumentation, Systems and Automation” a significare un’apertura globale che travalicasse i confini americani; nel 2007 assume la denominazione di “The International Society for Measurement and Control”, per poi definitivamente qualificarsi dal 2008 come International Society of Automation.
Nel frattempo l’adesione dei membri è passata dai 900 del 1946 ai 6.900 del 1953 fino agli attuali 28.000 da quasi 100 paesi.
Rilevante è stata la presenza degli italiani nelle varie attività e organismi di ISA, culminata con la nomina a Presidente di Pino Zani nel 2002, primo presidente ISA non nordamericano; lo stesso Zani nel 2008, durante l’ISA Expo di Houston (Texas), riceverà l’ISA Golden Achievement Award.



3.4.1.8 - SIDRA

La Società Italiana Docenti e Ricercatori in Automatica (SIDRA) si propone di coordinare le attività di ricerca nel campo dell’Automatica (settore scientifico disciplinare ING-INF/04).
Si pone in continuità con le prime esperienze di coordinamento tra ricercatori del settore, raccontata da Antonio Lepschy nel già citato articolo dell’ottobre 1997 su Automazione e Strumentazione. «Negli anni Sessanta si posero le basi di una struttura informale di rapporti di collaborazione culturale fra quanti svolgevano attività di ricerca nel settore dell’automatica presso le Università ed i Politecnici e con il sostegno del CNR. Allo scopo si organizzarono riunioni annuali caratterizzate da seminari su temi di interesse allora attuale, i cui testi furono pubblicati nei volumi della “Collana di Automatica” del CNR. […] Sulla base di queste esperienze si decise di costituire il “Gruppo dei Ricercatori di Automatica – GRA”, ciò che avvenne in una “assemblea” (la denominazione risente della terminologia che aveva corso all’epoca) tenutasi il 1° marzo 1969 ed alla quale parteciparono i “ricercatori che presso le Università si occupavano dei programmi riguardanti l’Automatica, finanziati dal Comitato di Ingegneria e di Architettura del CNR”. […] Il presidente del Gruppo durava in carica per un anno; il primo presidente fu Antonio Ruberti, nell’anno successivo gli succedetti io, poi fu rieletto Ruberti. […] Successivamente gli informatici preferirono darsi una struttura autonoma e ciò avvenne quando, a seguito del DPR 382/80 di modifica delle strutture universitarie, si costituirono Centri Interuniversitari che potevano essere di ricerca o di servizi. Si formò così il CIRA, Centro Interuniversitario di Ricerca in Automatica».
Nel 2007 il CIRA assume la fisionomia associativa di SIDRA e lo statuto ne indica lo scopo: «L’Associazione è finalizzata a promuovere e diffondere la cultura delle discipline dell’Automatica, così come definite dai seguenti campi paradigmatici:
– analisi di dati e segnali, identificazione di modelli, adattatività ed apprendimento, diagnostica e supervisione;
– automazione di sistemi e mezzi di trasporto e dei sistemi aerospaziali;
– automazione industriale;
– componenti, strumentazione, architetture hw/sw e di comunicazione per sistemi di automazione e controllo;
– controllo dei processi, di impianti e macchine;
– gestione e controllo dei sistemi e delle risorse ambientali;
– simulazione e ottimizzazione dei sistemi di automazione e controllo
– teoria e progetto dei sistemi di controllo;
– teoria, analisi e modellistica dei sistemi dinamici;
– robotica industriale e di servizio ed integrazione dei sistemi;
– meccatronica.
Promuove, in particolare, le occasioni di incontro tra giovani studiosi italiani e stranieri e la diffusione dei temi e dei risultati delle ricerche di questi. A tal fine organizza convegni, scuole avanzate, tavole rotonde e ogni altra forma di incontro e di discussione, favorisce gli scambi tra Università italiane e straniere ed ogni altra attività, ivi compresa la pubblicazione di libri o periodici, volta a diffondere i risultati degli studi realizzati nell’ambito dell’Associazione stessa. L’Associazione ha, infine, lo scopo di collaborare con altre associazioni culturali analoghe. Essa è apolitica e aconfessionale e non ha scopo di lucro».
Il coordinamento ha luogo in diverse forme; in particolare sono previsti, con cadenza annuale, un incontro nazionale di coordinamento e una scuola di dottorato; i convegni proseguono la tradizione già avviata con convegni nazionali annuali dal 1999 in diverse sedi italiane.
Le scuole nazionali estive di dottorato si svolgono in luglio, anche qui già dal 1997, presso il Centro Residenziale Universitario di Bertinoro (FO).
Altri eventi scientifici vengono promossi, tra i quali si ricordano due Convegni dell’ottobre 2010; il primo: “Sfide politiche, economiche e culturali della ricerca, dell’innovazione e della formazione. Fatti e riflessioni in omaggio ad Antonio Ruberti”, svoltosi a Roma, con una presentazione di Andrea Bonaccorsi, dell’Università degli Studi di Pisa; il secondo: “Prospettive e impatto dell’Automatica nello sviluppo del paese e nelle relazioni internazionali” svoltosi a Bologna, coordinato dal prof. Claudio Bonivento, dell’Università degli Studi di Bologna, con interventi di Sergio Bittanti (Cent’anni di scienza del controllo), Alberto Isidori (L’Automatica: opportunità e sfide per uno sviluppo sostenibile e sicuro), Roberto Tempo (Controllo di Sistemi Complessi).


3.5 - Fiere
3.5.1 - BIAS

Per raccontare la storia del BIAS è inevitabile il riferimento al resoconto di Girolamo Mezzalira, che le dedica un capitolo del suo Uomini e Strumenti.
«Riportiamoci al clima strumentistico italiano della metà degli anni ’50. La volontà di ripresa degli italiani, la ricostruzione industriale favorita dal piano ERP (European Recovery Plan), noto come piano Marshall, il fervore di realizzazioni nuove e vecchie nelle nostre società strumentistiche ed, infine, l’arrivo in massa dall’America e dal Nord Europa di strumenti e tecniche nuove, richiedevano una manifestazione corale e settoriale della strumentazione per la cultura degli utenti e l’emulazione dei fornitori.
Il fierone primaverile di Milano attirava le masse in una euforica kermesse e i “poveri espositori” di oggetti tecnologici per l’industria venivano distratti in un turbinare di umanità per quindici estenuanti giorni di standismo scarsamente produttivo.
Qualcuna delle nostre case strumentistiche gettava la spugna e passava parola perché anche altri si ritirassero dalla Campionaria di aprile dell’Ente Fiera di Milano.
Nella primavera del 1956 l’ing. Manassi riportava quanto stava maturando in Germania e ne parlava col prof. Gino Bozza, in seguito Rettore del Politecnico. Ad un colloquio informale era presente anche il dott. Antonio Barbieri, che captò il messaggio, lo valutò bene da solo e poi si mise all’opera.
In breve contattò le principali società costruttrici e rappresentanti italiane, di cui aveva conoscenza diretta come editore fin dal 1947 della rivista “La Termotecnica“, organo della allora giovane associazione ATI, ma anche come editore dal 1952 della rivista “Misure e Regolazioni“.
La risposta delle ditte interessate fu subito positiva e senza tentennamenti. Così, in pochi mesi, fu organizzato, dalla giovane rivista di strumentazione “Misure e Regolazioni“, il 1° Convegno Mostra Nazionale della Strumentazione, al Museo Nazionale della scienza e della tecnica in Milano, nei giorni 26 – 27 – 28 ottobre 1956 (un venerdì sabato e domenica).
Chi ha avuto la ventura di essere presente ricorda l’interesse degli specialisti e il piacere di incontrarsi in un terreno neutro.
E perché non approdare subito ai grandi e attrezzati padiglioni dell’Ente Fiera? Pare ancora di sentire la risposta dell’organizzatore: “Prima di navigare in acque alte, occorre esser sicuri che la barca tenga il mare”.
Il catalogo ufficiale della Mostra elenca i primi 33 espositori. Subito vi fu una generale richiesta di ripetere la manifestazione l’anno successivo in uno spazio più ampio per soddisfare quanti erano stati alla finestra o non avevano colto l’opportunità di esser presenti alla Mostra del Museo della scienza.
Le due successive edizioni si svolsero al Palazzo dell’Arte nel Parco del Castello Sforzesco. Gli espositori orinai avevano superato il centinaio. Era tempo di stringere accordi con l’Ente Fiera, di dare una dimensione europea alla manifestazione italiana.
Nel 1962 la mostra diventa internazionale e biennale, conservando la felice combinazione col convegno che viene da allora sponsorizzato dalla Fast e realizzato dall’Anipla.
Da quell’anno la denominazione ufficiale diventa “Biennale Internazionale dell’Automazione e Strumentazione” con la sigla BIAS, che conserva tuttora.
Anche in Germania e in Francia viene sentita l’esigenza di una mostra specializzata; nel 1957 a Düsseldorf si svolge la prima Interkama, seguita, l’anno successivo, a Parigi dalla prima Mesucora.
Il dott.Barbieri segue con cura la crescita del Bias e nel 1968, con le consorelle europee, viene fondato il CEMA Comitato Europeo Mostre dell’Automazione per il coordinamento delle tre manifestazioni Europee. Cosi si giunge nel 1978 al Calendario europeo, che fa succedere in un triennio Bias, Interkama, Mesucora.
Ed eccoci all’appuntamento 1987 con la ventunesima edizione e quello del 1989 con il Bias Microelettronica, esposizione della componentistica affiancata a quella della sensoristica».
La ricostruzione di Mezzalira traccia gli elementi principali e indica i fattori di successo di una manifestazione che ha continuato per diversi anni ad essere punto di riferimento e momento fondamentale di innovazione, di confronto e di comunicazione.
Per tutti gli anni ’90 il BIAS continuerà ad essere organizzato da EIOM, Ente Italiano Organizzazione Mostre, guidato dal nipote di Barbieri, Walter Rampini, che intensifica le collaborazioni con altre realtà associative e imprenditoriali come il GISI, l’Anipla, l’Assodel e altre ancora; la manifestazione si arricchisce di contenuti e segue da vicino gli sviluppi tecnologici e della ricerca. L’Anipla fa coincidere il suo convegno annuale con il convegno portante del BIAS e anche il BIAS Microelettronica, iniziato nel 1980, va a completare il panorama dell’esposizione; arricchendosi con l’allestimento del BIAS Sensors, dedicato alla sensoristica, e col Fortronic, dedicato alla subfornitura microelettronica.
Fino alla grande edizione del 1996, quella del quarantennale, che vede una qualificata partecipazione anche internazionale e inaugura l’era di internet proponendosi agli espositori e visitatori anche tramite il nuovo sito Bias-on-line appena aperto. Nel frattempo il Bias si fa promotore di un’intensa attività internazionale, trasformando il CEMA dapprima in Efima e successivamente in WorldFima (associazione internazionale delle Fiere di automazione) e sostenendo la presenza delle aziende italiane nelle manifestazioni estere.
Nel 2001 EIOM si accorda con la società VNU che prende in carico le manifestazioni fieristiche (oltre al BIAS c’è la fiera della chimica RICH-MAC) che poi cederà, nel 2007 a Fiera Milano.
Nel frattempo EIOM prosegue la sua attività in campo fieristico ed editoriale, organizzando una serie di manifestazioni tra cui SAVE, Mostra Convegno Automazione, Strumentazione, Sensori.






Pagina promozionale del nuovo sito Internet del BIAS nel 1995 e pagina di lancio del trentesimo BIAS nel novembre 2002.
3.5.2 - INTERKAMA/Hannover Messe

La prima edizione delle manifestazione fieristica INTERKAMA si svolge nel 1957, organizzata dall’ente fieristica Messe Düsseldorf. Negli anni seguenti l’evento si consolida come punto di riferimento a livello mondiale per il mondo dell’automazione, strumentazione e controllo di processo, ampliando via via i settori di interesse e gli spazi espositivi fino ad arrivare, nelle ultime edizioni del secolo, a proporsi come International Trade Fair for Industrial Communication, Automation, Measurement, and Analytics.
Le varie edizioni si susseguono con cadenza triennale, per molti anni in alternanza con le corrispondenti fiere in Italia e in Francia (BIAS a Milano e Mesoucora a Parigi); ospitando, accanto alle esposizioni, seminari, workshop e congressi su temi specializzati e di attualità.
Nel 1999, giunta alla quindicesima edizione, viene decisa una nuova cadenza biennale che però vedrà solo l’edizione 2001.
Nel frattempo la manifestazione allarga i suoi confini geografici proponendosi con edizioni speciali in altri Paesi, in particolare India e Cina.
Nel 2004, Messe Düsseldorf GmbH e Deutsche Messe AG, Hannover siglano un accordo di collaborazione che cambia la fisionomia delle fiere di automazione sulla scena sia nazionale che internazionale: la fiera INTERKAMA viene trasferita ad Hannover e si svolge nell’ambito della Hannover Messe come spazio dedicato principalmente all’automazione di processo. La decisione è il risultato di intensi negoziati che condotti anche con i rappresentanti delle associazioni di categoria e dell’industria.
In considerazione anche degli sviluppi dello scenario dell’automazione e della progressiva convergenza delle tecnologie industriali, si arriva all’attuale assetto della manifestazione di Hannover che vede lo spazio fieristico Industrial Automation & IT articolarsi nell’area Industrial Automation dedicata a Factory and Process Automation, Systems Solutions e Industrial Software e nell’area Digital Factory dedicata a Integrated Processes e IT Solutions. Nella prima area, su sette padiglioni sono presentate le novità in tema di Production and Process Automation, Process and Energy Automation, Industrial IT. Nella seconda area si possono trovare le novità relative a Virtual product development (CAx), Process integration, Product lifecycle management (PLM), Visualization, Enterprise resource planning ERP, Supply Chain Management, Manufacturing execution systems MES, Rapid prototyping and rapid manufacturing.




3.5.3. - SPS IPC Drives

La storia si SPS IPC Drives, oggi fiera leader nel campo dell’automazione industriale, cominciò in modo molto poco spettacolare, un evento di piccola entità nella città di Sindelfingen, vicino Stoccarda. Alla prima edizione 1990 parteciparono 63 aziende e 3.400 visitatori.
Nonostante l’inizio modesto, la manifestazione, organizzata da Mesago Messe Frankfurt mbH, fu caratterizzata fin da subito da un successo ininterrotto. Presto i servizi che Sindelfingen offriva si rivelarono insufficienti e nel 1997 SPS IPC Drives fu spostata nel quartiere fieristico di Norimberga. I padiglioni che oggi conosciamo come 1 e 2 ospitarono la prima edizione nella città Bavarese. Fu proprio in quell’anno che SPS IPC Drives registrò più di 10.000 visitatori e oltre 340 aziende espositrici.
Di anno in anno la manifestazione divenne sempre più importante per le aziende che operavano nel mondo dell’automazione così come per gli ingegneri, i costruttori e gli end user. A SPS IPC Drives i visitatori possono vedere l’intera offerta del comparto, dai sistemi completi fino ai componenti. Questa è l’idea che attirò l’attenzione sia di espositori che di visitatori stranieri.
Nel 2013, per esempio, al termine delle tre giornate espositive, la manifestazione ha chiuso con numeri record in ogni categoria:
1.622 espositori;
485 espositori stranieri;
60.027 visitatori;
13.779 visitatori stranieri.
La crescente internazionalità della manifestazione ha reso possibile aprire prospettive verso nuovi mercati. Eventi satellite sono stati avviati in Italia (Parma) nel 2011, in Cina (Guangzhou) nel 2011 e nel 2015 in India (Ahmedabad).
Per quanto riguarda l’Italia, si può dire che la manifestazione a Parma è diretta conseguenza del fatto che sempre più visitatori e espositori italiani partecipano all’evento di Norimberga. Con oltre 80 aziende presenti a SPS IPC Drives di Norimberga, l’Italia oggi è il paese maggiormente rappresentato dopo la Germania.
La scelta di Parma per l’edizione italiana viene motivata dagli organizzatori dalla considerazione che Emilia Romagna è il cuore dell’industria dell’automazione industriale; Parma rappresenta quindi un’opportunità in più di incontrare i principali protagonisti del settore. La centralità geografica di Parma inoltre la rende il polo fieristico visitabile in giornata da tutta l’Italia centrosettentrionale.
La SPS IPC Drives Italia, organizzata da Messe Frankfurt Italia, viene progettata col supporto di un Advisory Panel, composto da aziende di primissimo piano, e di un Comitato Scientifico nel quale sono coinvolti i responsabili di automazione, di utilizzatori finali e di costruttori di macchine provenienti dalle maggiori realtà produttive italiane. La manifestazione rappresenta la Fiera di riferimento per l’Automazione Elettrica in Italia: Fiera di soluzioni e non solo di prodotti, si caratterizza per la presenza di tutti i principali fornitori di componenti e sistemi per l’automazione e per l’attenzione posta alle soluzioni tecnologiche e alla divulgazione delle applicazioni realizzate nei vari settori industriali.




Immagini di SPS IPC Drives a Norimberga.




