1.4 – Il periodo pre classico
1.4.1 - Introduzione
I primi anni del XX secolo vedono una rapida diffusione delle applicazioni di sistemi di controllo per la regolazione di tensione, corrente e frequenza. Cosa si controlla? Si controllano le caldaie delle macchine a vapore, la velocità dei motori elettrici, la guida e la stabilità di navi e aerei, e poi naturalmente temperatura, pressione e portata nelle industrie di processo. Tra il 1909 e il 1929 la vendita di strumentazione subisce un’impennata: secondo Stuart Bennett, si tratta inizialmente di apparecchi di misura, indicatori e registratori ma, verso la fine del periodo iniziano ad aumentare le vendite di controllori.
Molte apparecchiature, come osserva sempre Bennett, vengono progettate senza una chiara comprensione né dei principi che ne dettavano il funzionamento né della dinamica dei sistemi da controllare; tuttavia «la maggior parte delle applicazioni riguardava la semplice regolazione e in tal caso questa mancanza di conoscenza non costituiva un serio problema».
Col diffondersi in diverse aree applicative di apparecchiature e sistemi di controllo i problemi sottostanti vengono comunque a galla. Le due questioni principali sono relative una alla carenza di conoscenze teoriche e di un linguaggio comune adeguato per discuterne, l’altra alla mancanza di metodi di analisi e di progetto di semplice applicabilità; gli unici strumenti di analisi disponibili sono le equazioni differenziali e il criterio di stabilità Routh-Hurwitz, peraltro non ancora ampiamente diffuso.
Non mancano tentativi interessanti di risolvere i problemi: come quello di Elmer Sperry, basato sull’osservazione dell’approccio “umano” al controllo, fatto di previsioni, calibrazioni e approssimazioni successive. Ma bisognerà arrivare agli anni ’30 con la riscoperta del lavoro di Nicholas Minorsky e con i lavori di Harold S. Black e Harold L. Hazen per poter parlare di una vera e propria teoria del controllo.

1.4.2 - L'anello di regolazione automatica in circuito chiuso
Per comprendere i successivi sviluppi dell’automazione, può essere utile presentare qui lo schema concettuale dell’anello di regolazione automatica in circuito chiuso, in inglese feedback (control) loop, che rappresenta il riferimento di tutto il contesto dell’automazione e del controllo dei processi industriali. Sia gli aspetti teorici, sia quelli pratici applicativi, sia quelli strumentali fanno sempre riferimento ad esso e la maggior parte dei testi e delle memorie su questo tema lo assumono come punto di partenza, dal quale deriva una vastità di sviluppi scientifici, tecnologici, pratici e culturali.
L’anello chiuso agli inizi è stato studiato, teorizzato, applicato prevalentemente per i “servomeccanismi”, prima che per il controllo dei processi. Servomeccanismi che iniziano e si sviluppano grosso modo negli anni ‘30 in Usa e trovano in Hazen (col suo celebre articolo del 1934) il primo studioso che fornisce una strutturata metodologia teorico-matematica e applicabile all’anello in oggetto. Dopo di lui una serie di testi sull’argomento consolidano le basi di analisi e di sintesi del sistema, considerando (e qui risiede l’avvio di questa nuova scienza) per la prima volta le caratteristiche “dinamiche” dei blocchi anziché quelle solo statiche.
Per servomeccanismo generalmente si intende un dispositivo utilizzato per regolare o per controllare una grandezza meccanica in modo continuo nel tempo; i servomeccanismi sono tipicamente impiegati per attuare cinematismi meccanici e la classe dei sistemi attuati viene anche detta assistita o servoassistita.
Il servomeccanismo nella accezione moderna è stato per più di un decennio il simbolo di riferimento degli sviluppi teorici e concettuali applicati molto spesso nei sistemi di puntamento dei cannoni abbinati al radar (di contemporanea nascita).
Successivamente, a partire dagli anni ’50, si distingueranno due filoni che, pur poggiando sullo stesso retroterra culturale, si sono specializzati uno nei sempre più usati servomeccanismi e poi nella robotica, l’altro nel controllo dei processi continui industriali, conosciuto come anello di regolazione automatica.
Tra questi due si può evidenziare una differenza applicativa e strutturale sostanziale:
■ L’anello chiuso “servo” viene progettato in modo che sia ottimizzato per seguire, secondo una evoluzione temporale predefinita, le variazioni della variabile di riferimento, riconosciuta sin dagli inizi, con la lettera “R”. Inoltre la descrizione matematica del processo da regolare risulta più puntuale e riferita ad ogni specifica realtà, essendo noti a priori le caratteristiche statiche e dinamiche degli elementi che lo compongono. Noto il processo da controllare anche il sistema di compensazione (regolatore) viene progettato e realizzato in modo ottimale per il raggiungimento degli obiettivi predefiniti.
■ La “regolazione automatica” dei processi invece prevede normalmente un valore fisso e costante del “valore desiderato “VD” (equivale ad R), mentre sono più ricorrenti e quindi da regolare, le variazioni sulla variabile controllata “VC” (equivale a “C”) prodotte da variazioni di carico (disturbo “d”) spesso (sempre) presenti nella evoluzioni del processo industriale da regolare. In questo ambito infatti risulta molto più complesso e a volte poco definibile, la funzione del processo che viene al contrario identificata da uno o più modelli rappresentativi di un comportamento assimilabile ad esso senza esserne in realtà la sua rigorosa descrizione matematica.
Quali sono le prestazioni richieste a questo anello? Sostanzialmente due.
a – Ottenere dopo i transitori la migliore corrispondenza/equivalenza della variabile C di uscita con la variabile R di riferimento di ingresso, cioè tendere ad un errore nullo.
b – Che i transitori, quando si presentano variazioni di R o del disturbo generico “d” all’interno dell’anello sul percorso di “andata” convergano a un valore statico o stazionario (sempre in relazione alla dinamica della variazione imposta). Queste sono dette condizioni transitorie.
La teoria della regolazione o, più in particolare, dell’anello chiuso si concentra nelle tecniche di analisi e sintesi per il raggiungimento dei due obiettivi base e nella possibilità di progettare i componenti che sono impiegati per la costruzione del sistema.
Esiste anche la possibilità pratica e applicativa di regolazioni in anello aperto (feedforward control), dove la presenza di una variazione di R(s) produce direttamente una correzione, diciamo “stechiometrica predefinita”, che corregge in modo diretto il sistema senza la necessità di valutare l’effetto (come fa il feedback) della correzione introdotta.
Va ricordato tuttavia che il feedforward control richiede la valutazione e quindi misura di tutte le possibili cause di variazioni del processo e la conoscenza profonda delle trasformazioni dello stesso, in relazione alle variazioni di R(s) e di tutti i disturbi che possono presentarsi.
Quindi oltre alla formulazione perfetta delle equazioni del processo, implica l’impiego di sistemi di misura per ogni possibile effetto causato dai disturbi e un sistema di calcolo più complesso per correlare ogni variazione con la giusta correzione da apportare. Un qualunque dimenticanza o imprecisione sul sistema non troverebbe l’azione correttiva adeguata. Il sistema in feedback al contrario evolve per correzioni successive (quindi più lunghe nel tempo) ma poiché si basa proprio sull’errore tra ingresso e uscita, provvede, indipendentemente da chi lo abbia prodotto, ad annullarlo: quindi non è perfetto e immediato nel tempo, ma è globalmente più robusto e con minori costi di apparecchiature.
Storicamente è successo e succede che, nei servomeccanismi ma soprattutto nel controllo dei processi industriali, quando siano richieste prestazioni di alta qualità, si impieghino entrambi i sistemi, feedforward & feedback: il primo per apportare una prima correzione immediata calcolata, il secondo per correggere, con più “calma” quelli che possiamo chiamare gli errori residui o non convenientemente rilevabili o del tutto non preventivabili (effetti delle variazioni delle condizioni ambientali, invecchiamento del processo, slittamento delle tarature della strumentazione…).

1.4.3 - Il preannuncio e l'evoluzione del PID
Nel 1992 Nicholas Minorscky (1885 – 1970) presenta una chiara analisi del problema del controllo di sistemi di controllo di posizione e formula una legge che ora possiamo riferire a quella che si definisce come PID (funzione regolante con azione Proporzionale-Integrale- Derivativa).
Arriva alla legge osservando il modo con cui un timoniera guida la nave. Il suo lavoro però non diventa di dominio pubblico se non verso la fine degli anni ’30, quando Minorsky pubblicherà una serie di articoli sulla rivista The Engineer. Ma anche i progettisti che apprezzano il suo contributo, non hanno ancora a disposizione apparecchiature di amplificazione lineari e stabili in grado di convertire la bassa potenza dei segnali ottenuti dagli strumenti di misura in potenza sufficiente a controllare gli attuatori. Le valvole sviluppate nei primi decenni del secolo avevano fornito una prima soluzione del problema per i sistemi idro-meccanici; ma c’è una impasse per quanto riguarda gli amplificatori per i sistemi pneumatici ed elettronici.

Il problema viene risolto grazie agli sviluppi della telefonia che spingono verso la realizzazione di amplificatori elettronici adeguati e nel 1927 si ha il breakthrough ad opera di Harold S. Black col suo amplificatore reazionato che dopo il 1931 inizia ad essere impiegato estesamente dalla AT&T, dove Black lavorava, ma solo dopo il 1934 viene universalmente conosciuto attraverso le pubblicazioni specializzate.
A questa data, che coincide con quella dei lavori di Hazen, Bennett fa concludere il cosiddetto periodo pre-classico e iniziare il periodo classico dell’automazione.
Vale la pena, per compattezza di esposizione, presentare qui di seguito un breve excursus di quella che sarà l’evoluzione del PID; e si può già affermare che, considerando i sistema di controllo e le tecniche impiegate per la costruzione dei regolatori con la funzione PID, quest’ultima non sia cambiata molto dal 1940 ad oggi con qualche distinguo applicativo.
Nella prima era (1940-1960) del controllo l’azione derivativa non era o era poco contemplata: la tecnologia meccanica/pneumatica non consentiva una funzione così sofisticata.

Nella seconda era la strumentazione pneumatica prima e quella elettronica analogica dopo (1960-1980) e poi quella con elettronica digitale (1975-1990) hanno permesso di realizzare la funzione PID con ulteriori sofisticazioni circuitali, aggiungendo altre funzioni,
che possono migliorare anche di molto la regolazione.
Eccole qui di seguito indicate.
■ Limitazione del segnale di uscita entro limiti prefissabili 0-100% (3-15 psi o 4-20 mA) quando la regolazione può, per condizioni anomale o strutturali del processo, portare l’uscita del regolatore al di fuori del campo utilizzabile di lavoro della valvola.
■ Desaturazione dell’azione integrale (anti reset wind up), che essendo rigenerativa può, in presenza di larghi e persistenti errori, non solo uscire dal campo di lavoro 0-100% dell’uscita, ma soprattutto superare i limiti operativi dell’azione integrale con conseguenze negative anche di grande portata nella dinamica del sistema globale regolatore-valvola- processo-misuratore.
■ Applicazione dell’azione derivativa, anziché sull’errore, solo sulla variabile misurata. Questo evita che variazioni del valore desiderato subiscano l’azione “nervosa” derivativa con forti e improvvise variazioni di uscita, normalmente indesiderate. In questo modo si derivano invece solo le variazioni fisiologiche e strutturali della variabile controllata coerenti con la dinamica intrinseca del processo.
■ La limitazione dell’azione derivativa (selettiva) ad alte frequenze indispensabile per filtrare il “rumore” del segnale VM può essere resa regolabile.
■ La possibilità di realizzare una funzione PID così come è stata presentata e cioè con una equazione dove le tre azioni sono del tutto indipendenti e separatamente gestibili, non era possibile con la tecnica pneumatica e sui primi regolatori elettronici: si produceva in vari modi ed in funzione della rete prescelta, una interazione tra le azioni I & D che modificava il guadagno proporzionale impostato (il KP ) aumentandolo in funzione del rapporto TD /Ti in varie ma inevitabili forme.
■ Pur con qualche distinguo e cautela, l’aggiunta di una funzione di “auto messa a punto delle azioni” (self tuning), possibile solo con elettroniche digitali e comparsa intorno la metà degli anni ‘80, ha dato un forte aiuto agli operatori rendendo meno empirica questa attività. Questa funzionalità prevede una prima predisposizione dei tre parametri e successivamente un algoritmo registra l’evoluzione dinamica del PID in ragione di piccoli disturbi indotti sul valore desiderato e la successiva conseguente risposta sulla variabile misurata, costruendo e aggiornando un modello di processo dal quale vengono calcolati, sulla base di una specifica predefinita dall’operatore, i
migliori valori delle tre (o due) azioni.
Gli strumenti elettronici con componentistica analogica, consentono di realizzare la funzione PID con amplificatori operazionali opportunamente reazionati per generare le azioni P, I, D in modo più corretto rispetto alle funzioni canoniche; potendosi in tal modo ottenere prestazioni più coerenti e inglobando alcune funzioni avanzate. La generazione successiva dell’elettronica digitale con microprocessore e firmware real time, ha davvero creato il PID decisamente più “robusto” e con tutte le funzioni avanzate prima
indicate. In questo senso quindi certamente l’evoluzione tecnologica dalla meccanica/pneumatica alla elettronica ha prodotto importanti miglioramenti della funzione PID, anche se spesso di non grande popolarità e comprensione: già l’interpretazione dei tre parametri e gli effetti che producono sulla prestazione, non era (è) facilmente intuibile e applicabile; si lascia immaginare l’impatto quando questi diventano 8 o 10 i cui effetti/ruoli sono più sofisticati e richiedono una conoscenza dei dettagli del sistema di regolazione, non proprio intuitivi né di facile interpretazione.
Con questa tecnologia non si può più parlare di funzione PID così come presentata, cioè espressa da una equazione classica nel dominio del tempo o di Laplace, bensì nel mondo del real time e cioè di una approssimazione alla continuità temporale.

1.4.4 - Alle radici dell'approccio moderno
Abbiamo già più volte indicato come data significativa nella storia dello sviluppo di questa nuova scienza applicata il 1934, quando uno studio di Harold L. Hazen “Theory of Servomechanisms”, pubblicato sul Journal of Fanklin Institute, segna l’avvio di un interesse crescente in questo nuovo settore.
È in questa pubblicazione che viene coniato il termine servomechanism, originato dalle parole “servant” (slave-schiavo) e “mechanism”. Lo stesso anno a complemento di quanto fatto da Hazen, Harold S. Black pubblica “Stabilized feedback amplifiers”, nel contesto della Bell Systems Tech: si tratta di un importante documento sulla applicazione degli amplificatori elettrici del tempo (le vecchie valvole, triodo e pentodo) in circuiti con controreazione (feedback). Lo stesso Black con Nichols proporrà , più avanti, un metodo grafico per lo studio della stabilità dell’anello chiuso.
Contemporaneamente ai lavori di Black, alla Foxboro Company Clesson E. Mason sviluppa un amplificatore pneumatico a retroazione negativa.

Già nel 1914 uno dei fondatori della Foxboro, Edgar Bristol, aveva inventato un amplificatore del tipo flapper-nozzle (ugello-deviatore); le prime versioni però erano altamente non-lineari (in pratica, con comportamento on-off) e durante gli anni ’20 si era cercato di modificarli e perfezionarli per ottenere almeno una percentuale di comportamento lineare, senza grande successo.
Nel 1928 Mason inizia a sperimentare la possibilità di alimentazione in retroazione e nel 1930 produce un circuito retroazionato che linea rizza l’operazione della valvola e permette di inserire nel sistema l’azione integrale: è lo Stabilog.
L’anno seguente la Foxboro inizia a vendere il controllore pneumatico Stabilog,
vincendo le iniziali resistenze del mercato dovute ai costi e a una non chiara comprensione del funzionamento dell’apparecchiatura; l’azienda dovrà pubblicare un fascicolo che spiega in termini semplici e precisi la novità e le differenze rispetto ai sistemi solo parzialmente lineari.
Nello stesso periodo al MIT, sotto la direzione di Vanevar Bush (1890 – 1974), inizia lo studio per la realizzazione dei calcolatori analogici; una ricerca che avrà come risultato l’analizzatore differenziale, uno strumento per simulare le caratteristiche dei sistemi dinamici e per ottenere soluzioni numeriche delle equazioni differenziali.