Tag Archives: Glossary of musical terminology

[IT] Risparmio Energetico e Miglioramento Depurativo (C,N,P) mediante Controllo a SetPoint Dinamico dell’Ossigeno Disciolto: WDOxy Fuzzy

Lc2WDOxy-Fuzzy Controller

– Concentrazione dell’Ossigeno Disciolto e Controllo Energetico: un controllo adeguato del funzionamento di un impianto di depurazione e in particolare, del reattore biologico  (CSTR a “fanghi attivi” e con rimozione di N e P), si rende necessario sia per garantire la qualità dell’effluente e il rispetto dei limiti di legge, sia per contenere le spese di gestione: aspetto quest’ultimo che sta assumendo un’importanza sempre maggiore a causa dei crescenti costi dell’energia.  Infatti, il controllo della fornitura di aria in un impianto a fanghi attivi è importante per le seguenti motivazioni:

  • la fornitura di ossigeno è una delle principali voci di costo gestionali (10÷30 %);
  • la fornitura di ossigeno è un fattore determinante per l’affidabilità della qualità dell’effluente depurato;
  • la fornitura di ossigeno è un fattore determinante per l’efficienza della sedimentazione dei fanghi e dello stato di salute della biomassa.

Concentrazione dell’Ossigeno Disciolto e Bulking Filamentoso: la concentrazione dell’ossigeno disciolto (OD) nel reattore è un parametro di input di enorme importanza per la sua influenza sul bulking filamentoso e quindi, sulla sedimentabilità dei fanghi. La relazione tra il OD e lo SVI è direttamente influenzata dal carico organico (F/M): più elevato è il carico organico, più alta è la concentrazione di ossigeno disciolto necessaria per prevenire il bulking. La proliferazione di alcuni batteri filamentosi quali lo S.Natans, tipo 1701, e l’H. hydrossis in condizioni di basso ossigeno disciolto può essere attribuita all’elevata affinità (bassa costante di semisaturazione) che essi hanno per l’ossigeno.

Il controllo tradizionale con  Set-Point Prefissato dell’ossigeno disciolto:

  • Non si tiene conto della resa del processo di depurazione: necessaria la misura di un altro parametro (efficienza abbattimento NH4)
  • Non si tiene conto della variabilità del carico entrante: si fornisce troppo o troppo poco ossigeno per la maggior parte del tempo
  • Scarsa stabilità di controllo: i metodi di controllo tradizionali sono troppo semplificati e danno luogo ad instabilità

WDOxy

Il Modello WDOxy Fuzzy è una procedura dinamica di calcolo del Set-Point dell’OD, ovvero della concentrazione di ossigeno disciolto (minima) necessaria per le effettive esigenze real-time del metabolismo batterico della rimozione del carbonio e dell’azoto. La procedura WDOxy Fuzzy si basa su algoritmi bio-processistici e sull’utilizzo in “input” della misura on-line del valore di concentrazione NH4 (in alternativa: ORP), oltre alla misura on-line dell’OD e restituisce in “output” in tempo reale, il valore di set-point ottimale di OD.

Vantaggi del sistema a Set-Point OD Dinamico WDOxy-Fuzzy rispetto al sistema tradizionale a Set-Point Prefissato: 

  • Risposta immediata a picchi entranti e condizioni di variabilità di carico entrante grazie ad un adattamento continuo del set-point di ossigeno disciolto: adattamento del processo biologico alle variazioni di carico in ingresso. Il sistema a set-point OD Dinamico, a differenza del sistema di controllo tradizionale (a set – point fisso di ossigeno disciolto) che evidenzia ampie oscillazioni, dimostra una notevole stabilità nel raggiungimento delle condizioni di processo ottimali, anche di fronte a significative variazioni del carico entrante
  • Maggiore stabilità di processo ed efficienza depurativa, con particolare riferimento al processo di nitrificazione;
  • Elevato risparmio energetico 15-20%  e contestuale eliminazione degli eccessi di nitrificazione, in quanto viene evitata la fornitura di aria in eccesso ed ottenendo un miglior rendimento di trasferimento di ossigeno da parte dei diffusori.
  • Assicura l’efficienza del rendimento di rimozione richiesto.

SOLUZIONE a Set-Point Dinamico:  Liquicontrol NDP

LcLiquidcontrol NDP

EH

Liquicontrol NDP è un innovativo sistema di gestione e controllo dell’ossigeno disciolto in vasca d’aerazione e della concentrazione dell’azoto ammoniacale nell’effluente. Il valore di Azoto ammoniacale viene misurato in continuo, confrontato in tempo reale con il valore desiderato ed infine, utilizzato per il calcolo del set-point variabile dell’ossigeno disciolto. Il valore del set-point di ossigeno disciolto è poi confrontato con la misura dell’ossigeno disciolto presente in vasca in quel momento e determina, grazie ad una regolazione con logica fuzzy, l’erogazione dell’aria.

Per la stima del risparmio energetico relativo al sistema Liquicontrol NDP, è possibile utilizzare un parametro denominato Indice di Prestazione ENergetica: rapporto tra l’energia attiva assorbita dal comparto di aerazione ed i più significativi carichi inquinanti rimossi, pesati secondo l’effettivo contributo alla fornitura d’aria:

IPEN = Energia (kWh/d) / [0,3*CODrimosso (kg/d)+0,7*NH4+rimosso(kg/d)]

SISI-EHLiquicontrol

Ref. in primo piano:

_____________________________________________________________________________________

Per ulteriori informazioni o quotazioni di offerta:

[IT-EN] Algoritmi sullo sviluppo della Interdisciplinarietà, del Buonsenso e del Valore

front  Interdisciplinary Thinking by Knowledge Synthesis

(2011) In un mercato del lavoro contraddittorio e imprevedibile come quello attuale, nel quale le professionalità “medie” (“colletti bianchi”) sono sempre meno richieste, a favore di un dicotomico interesse per la categoria degli artigiani (cuochi, panettieri, ecc.) da una parte, emergenti professionalità “Knowledge Intensive” dall’altra. Queste ultime, frutto della globalizzazione della conoscenza, sono caratterizzate da una crescente competitività in termini di flessibilità e interdisciplinarità. La sfida da affrontare è il lavoro che manca, perché per decenni si è puntato solo alla riduzione dei costi, piuttosto che alla creazione di valore ed eliminazione degli sprechi. La sfida da affrontare è il lavoro che cambia, sia in termini temporali, che in termini concettuali: se è cambiata la domanda, l’offerta dovrà necessariamente adeguarsi.

Non possiamo pretendere che le cose cambino, se continuiamo a fare sempre le stesse cose...” (A. Einstein).  Il presente lavoro intende contribuire a dare possibili risposte alle seguenti domande:

  • è possibile potenziare la propria professionalità, per capire ed adeguarsi al nuovo livello di competitività?
  • è possibile potenziare la propria capacità di elaborare e sintetizzare l’enorme volume di dati e informazioni, con le quali dobbiamo confrontarci ogni giorno?
  • è possibile sviluppare, in uno scenario di complessità lavorativa, il “buonsenso” nella presa di decisione e la capacità di creare nuovo “valore”?
  • è possibile fare tutto ciò in un tempo sostenibile (mesi e non anni)?

La soluzione proposta in questi libro di appunti è l’apprendimento del “ragionamento interdisciplinare” (v. http://www.conoscenzaefficiente.it) e la metodologia proposta, nelle sue linee essenziali, si basa sul concetto dell’esistenza una struttura comune e ricorrente della conoscenza (Knowledge’s Common Frame) che, con le sue proprietà e dinamiche evolutive, rappresenta la “chiave di volta” del nuovo approccio. Pur contenendo algoritmi di tipo matematico, il testo segue un filo logico discorsivo che lo rende adatto a lettori con un “background” non solo di tipo tecnico-scientifico, ma anche economico-gestionale e politico.

Il libro è scritto in un inglese tecnico, ma contiene note e commenti in Italiano. Due casi applicativi della metodologia, come l’Interdisciplinary Knowledge Worker e il K-commerce, sono riportati ad esempio.

Something old, something new, something better…,   perhaps something for you.

[IT] Il Valore della Conoscenza nell’Era della Net Economy (3° parte)

net_economy1

Nelle parti precedenti (prima e seconda) si è posto in evidenza come una conoscenza efficace (v. “Sapere è Potere”) nell’era della Net Economy debba operare anche in maniera efficiente, ovvero competitiva. Ancor prima di conoscerne le modalità, sappiamo che gli effetti di una conoscenza efficiente si traducono, per chi possiede gli strumenti giusti (v. “cassetta degli attrezzi”), in una rinnovata capacità di interazione interdisciplinare, di buonsenso condiviso e di semplificazione della complessità. Si è anche accennato ai “Modelli di Conoscenza” (Knowledge Models) come elementi catalizzatori della capacità di sintesi che diventa fondamentale in uno scenario di “Big Data” e aggiungerei, di “Big Info”.

In questa terza parte, si intende entrare più nel merito di quelli che possono essere gli strumenti operativi di gestione e di “misurazione” della stessa conoscenza, in termini di “quantità” e di “valore” producibile (v.ROI), vale a dire gli strumenti che, come nel caso delle attrezzature di una “officina meccanica”, consentono di smontarla, di ottimizzarla e di riutilizzarla.  Punto di partenza è senz’altro la ricerca di una definizione condivisa di “conoscenza”: si sa che è da sempre, un concetto complesso da descrivere.  È  molto più semplice provare a definire ciò che non è conoscenza: non è una collezione di dati o di informazioni, come ci ricorda A.Einstein: “L’informazione non è ancora conoscenza”. Naturalmente, si ritrovano molteplici definizioni del termine conoscenza in letteratura o nella rete Internet, correlate allo specifico contesto di riferimento o al concetto epistemologico, la maggior parte di esse correlate alla cognizione dei fatti, della verità o dei principi. Forse la definizione che meglio esprime la sua funzionalità, è data dall’acronimo DIKW (Data, Info, Knowledge, Wisdom), intesa come “catena della conoscenza”, in grado di rappresentare le relazioni funzionali tra dati, informazioni, conoscenza e saggezza. La “Catena della Conoscenza” DIKW non è solo un legame funzionale, ma esprime anche una azione: “ La conoscenza è informazione in azione” (C.O’Dell, C. J.Grayson). Con riferimento al DIKW e alle considerazioni precedenti, potremmo concludere come la conoscenza sia la facoltà umana risultante dall’interpretazione delle informazioni finalizzata all’azione, ovvero il risultato di un processo di inferenza e di sintesi (ragionamento), a partire dai dati verso la saggezza. Ora, la prima vera e al tempo stesso, devastante “novità” che scaturisce dall’osservazione dell’evoluzione del sapere nella Net Economy, è che la struttura della catena della conoscenza (DIKW), non risulta legata al peculiare ambito applicativo o “dominio” cui si riferisce e non dipende dal particolare “glossario dei termini” che in tale ambito viene utilizzato: i processi di ragionamento fautori della conoscenza, non sonofigli unici di madre vedova”, ma seguono in genere dinamiche trasversali e interdisciplinari che sono ripetitive secondo classi tipologiche. Nella migliore delle ipotesi queste ultime si inseriscono poi nel sistema inerziale (v. parte prima) nel quale valgono i principi base della natura (ecosostenibilità) e dell’uomo (v. Piramide dei bisogni primari di A.Maslow), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Un esempio per tutti: l’Ingegneria Biomedica è nata quando finalmente discipline diverse, storicamente inconciliabili tra di loro (se non proprio antitetiche), come la medicina, la fisica, l’ingegneria, l’informatica, ecc., si sono incontrate “interdisciplinarmente” nel suddetto sistema di riferimento inerziale, al fine di soddisfare un bene primario come quello della salute.  Esempi come questi, nell’era della Net-Economy, come è facile constatare, si moltiplicano quotidianamente in maniera esponenziale. Ecco quindi, che il termine “devastante” utilizzato prima, non è per nulla esagerato, ma stigmatizza la necessità di gestire questa evoluzione accelerata della conoscenza.  Ritornando alla nostra “cassetta degli attrezzi” e ai componenti da assemblare (informazioni), risulta prioritario anche stabilire un “linguaggio universale di sintesi” (che sia comprensibile e ripetibile al di fuori di ogni contesto linguistico-lessicale): possiamo allora far uso della simbologia e della logica matematica (che è appunto universale) per esprimere sinteticamente i concetti finora espressi. Ad esempio, per quanto riguarda la definizione di dati e informazioni, l’intera descrizione si ridurrebbe a :

  • Dato = Funz [Codice alfanumerico, Unità di Misura, Modalità di Acquisizione, Qualità, Validità]
  • Info = Funz [Espressione alfanumerica, Dinamica del Processo/Contesto di Riferimento, Processo di Inferenza, Grado di Influenza Post-Ante, Ciclo di Vita]

In altri termini, dati e informazioni sono esprimibili come funzione (Funz) o relazione delle variabili da cui dipendono, elencati nelle parentesi quadre “[]”. A questo punto sarà prioritario stabilire anche un sistema di misura della “quantità” di conoscenza e del “valore” (qualità) della stessa, ma ecco qui un’altra “devastante” questione: ma come è possibile misurare qualcosa di intangibile? La risposta è in un’altra domanda: nel ragionare e prendere ad es. una decisione, il nostro cervello risolve un’espressione algebrica o risolve per caso un sistema di equazioni? Certo che no. Allora forse c’è un “gap” tra quello che ci hanno insegnato a scuola nell’ambito della computazione dati (v. Matematica) e il modo “naturale” di computare informazioni, proprie del nostro cervello, modalità che è stata poi, in qualche modo “trasferita” nell’Informatica (v. Intelligenza Artificiale).

Qui si aprirebbe un ampio discorso sull’esistenza di altri tipi di matematica più vicine alla realtà quotidiana, come la “Matematica dei Frattali” (v. Benoît B. Mandelbrot, Les objets fractals: forme, hasard et dimension, 1986) la cui applicazione ci farebbe scoprire ad es. come la neve, gli alberi, il profilo delle nostre coste rispondono ad un criterio di autosimilarità e ripetitività, spiegherebbe addirittura “perché” in una macchina fotocopiatrice, per ridurre proporzionalmente un formato A3 in un equivalente A4 (la metà di A3) bisogna selezionare l’opzione “misteriosa” del 71%! Per fortuna c’è qualcuno che ha sintetizzato il concetto, in un meraviglioso filmato YouTube: “La vita sulla terra è basata sulla matematica frattale”:

(http://www.youtube.com/watch?v=O19K9EuxXWY&noredirect=1)

La difficoltà che si ritrova nella misura dell’intangibile è proprio nel fatto che siamo in genere restii a cambiare il nostro consolidato sistema di riferimento, avendo imparato da piccoli la computazione deterministica con i numeri (dati), anche se poi operiamo anche secondo processi di computazione non deterministica con le informazioni: si sa poi che la cosa più difficile è cambiare (a questo proposito, gli aforismi sul “cambiamento” si sprecano). Se però ad es. dobbiamo decidere cosa fare un venerdì sera, se uscire e andare in discoteca piuttosto che in palestra o al cinema, sulla base di informazioni sulle condizioni atmosferiche, sul nostro stato bioritmico, sul nostro oroscopo, o altro, noi non solo non risolviamo un algoritmo matematico, ma il fatto “sconvolgente” è che è possibile valutare (anche con una banale calcolatrice o con un foglio elettronico), qual è la soluzione più logica o più di “buon senso”, emulando in maniera esplicita quello che il nostro cervello fa naturalmente, in genere, in maniera implicita. Fare ciò risulta possibile (anche intuitivamente) perché le informazioni esercitano un “peso dinamico” sul nostro ragionamento e sul risultato finale (target) della nostra decisione, frutto di una elaborazione “quali-quantitativa”, inserita nel peculiare contesto della nostra esperienza e conoscenza.  Qui un esempio “numerico” concreto e ripetibile, aiuterebbe molto a fissare il concetto, ma per ovvi motivi di spazio ciò viene rimandato, insieme ad altri approfondimenti, in una prossima puntata di questo articolo.

[IT] Il Valore della Conoscenza nell’Era della Net Economy (2° parte)

net_economy1

Il valore della conoscenza nell’era della Net Economy (2° parte)

Si riprende qui la riflessione sul tema “valore della conoscenza nell’era della NetEconomy” (vediprima parte) dal punto in cui si erano evidenziate le contraddizioni e i paradossi presenti nel sistema “ragnatela”, la necessità di riferirsi ad un sistema inerziale valido e stabile rispetto agli eventi mutevoli contingenti, il bisogno di dotarsi di strumenti specifici per gestire la conoscenza in maniera competitiva (conoscenza efficiente).

In questa seconda parte, si intende entrare un po’ più nel merito di questi strumenti (cassetta degli attrezzi) che ci consentirebbero di acquisire, una capacità di interazione interdisciplinare, lo sviluppo del buonsenso condiviso e la capacità di semplificazione della complessità, “capabilities” fondamentali per operare in maniera competitiva (v. ragni e non prede) nell’ambito della gestione del valore nelle reti di conoscenza. Per definire questi strumenti di lavoro bisogna innanzitutto partire da quelli che sono gli elementi strutturali di base (“mattoni”) della conoscenza sui quali operare, ovvero i dati e le informazioni: può sembrare banale questa distinzione spesso confusa come sinonimia, ma è proprio qui che si nasconde la prima micidiale trappola concettuale, che avrebbe effetti devastanti soprattutto nell’ambito di una gestione informatica dei “Big Data”. Sarebbe come confondere ad es.: i bicchieri con l’acqua che può esserci al loro interno, gli archi con le rispettive frecce,  il nozionismo con la cultura, ecc. Semplificando molto  il concetto: i dati sono entità statiche, “fotografie” di fatti e sono quindi espliciti, in genere sono espressi in forma alfanumerica, prodotti da fonti (database, sensori,…) che ne condizionano poi la loro rispettiva “qualità”.  Leinformazioni sono entità dinamiche ed evolutive, caratterizzate da un proprio ciclo di vita, nascono in forma esplicita o latente dai dati, sono correlate ad uno o piùprocessi (mentali, personali, ambientali, produttivi, ecc.) ed esercitano su tali processi una propria influenza (o “peso”).  Ad esempio: misurando latemperatura, la pressione atmosferica e l’umidità relativa esterna (dati), si ottiene un’informazione che può essere correlata all’abbigliamento da indossare (processo), ma che è poi condizionata dal “peso” che la stessa informazione ha su una determinata persona piuttosto che su un’altra e dura lo spazio temporale (ciclo di vita) limitato alla rispettive necessità di uscire da casa… Le informazioni rappresentano quindi, la vera componente strutturale della conoscenza, che a sua volta nasce e si sviluppa attraverso processi di interazione e inferenza verso “target” conclusivi (ragionamento deduttivo)  e viceversa (ragionamento induttivo).

Gli strumenti di base per ricavare informazioni da sorgenti di dati sono notoriamente (v. Business Intelligence): la Statistica Multivariata, le tecniche di “Data Mining” e di “Knowledge Extraction”, nelle loro rispettive modalità di applicazione. L’output dell’applicazione di questi strumenti è la generazione/esplicitazione di informazioni, utili per sviluppare processi di ragionamento e quindi, creazione di conoscenza “efficace” (proattiva).  Nello scenario della Net-Economy, come si è già evidenziato nella prima parte, l’efficacia nei ragionamenti e della conoscenza rappresenta solo una condizione necessaria, ma non più sufficiente. Per aggiungere “efficienza” (competitività) è necessario utilizzare strumenti di livello superiore, come ad esempio, i “Modelli di Conoscenza” (v. Knowledge Models), che in molti casi risultano essere concetti preesistenti e noti, mentre in altri è necessario crearli o adattarli alle situazioni di nostro interesse. Cosa sono allora questi Modelli di Conoscenza e come si utilizzano? In un certo senso, sono più diffusi di quanto si possa pensare, anche se non ne siamo del tutto consapevoli, soprattutto rispetto ad un loro utilizzo “professionale”: è come utilizzare ad es. uno “scivolo” in un parco giochi e non sapere che lo stesso potrebbe essere in alcuni casi, il sistema più rapido per raggiungere una meta prefissata anziché utilizzare le comuni “scale”. Un Modello di Conoscenza è per definizione una “sintesi” (Pattern) di una moltitudine di informazioni e di ragionamenti, che “lavora” acquisendo in input direttamente  i dati da fonti esterne eterogenee ed è in grado di restituire in tempo reale in output  informazioni decisionali conclusive rispetto ad un target  prefissato.

Nella prossima riflessione (3° parte) entreremo nel “vivo” della descrizione operativa ed esemplificativa di questi strumenti per la gestione efficiente della conoscenza, per arrivare a introdurre i metodi di “misurazione” della stessa, vero “spartiacque” tra un uso hobbistico e un uso professionale del valore della conoscenza nello scenario della Net-Economy.