Tag Archives: Lombardy

WBFuzzy control: Sistema di Ottimizzazione Resa produttiva del Biogas da Co-Digestione

systemWBFuzzy control: un  Sistema di Controllo per la ottimizzazione della resa produttiva di biogas, basato sull’utilizzo di algoritmi Fuzzy di Controllo EarlyWarning della Stabilità e dell’Efficienza del processo di Co-Digestione Anaerobica, con regolazione Quali/Quantitativa della miscela di alimentazione disponibile.

Il Sistema è finalizzato alla ottimizzazione della produzione di biogas dalla co-digestione anaerobica. La misura della portata di biogas e della %CH4 sono un ottimo feedback di controllo del processo, mentre è possibile integrare misure on-line  per monitorare le fasi a differente cinetica, con particolare rif. a quella acidogenica/metanogenica. La novità nel modello è immediatamente la semplicità applicativa, ma soprattutto la possibilità di regolare il digestore (perfissato il loop di temperatura), non solo sulla base della “quantità” di alimentazione, ma anche sulla “qualità” della stessa, in relazione al Potenziale Metanigeno (BMP) e al Costo unitario.

  1. Controllo EarlyWarning Multi-Fuzzy (Loop in Cascata) per il bilanciamento delle fasi del processo (rif.acidogenica/ metanogenica) sulla base di misurazioni on-line come: T, pH, ORP, EC, Portate massiche, Livelli, ecc.
  2. Controllo di FeedBack Loop-Control sulla resa Biogas: misura volumetrica della portata biogas, %CH4 (%CO2)
  3. Loop Fuzzy di Regolazione Portata di Alimentazione/Ricircolo, su base idraulica e in base alla “Classe” Qualitativa della Matrice di alimentazione disponibile  (in base al Potenziale Metanigeno, al Costo Unitario dei Componenti di alimentazione, ecc.)

________________________

EarlyDIG  EarlyDIG

 Guida Utente software EarlyDIG

L’applicativo software Early Dig analizza il funzionamento di un digestore anaerobico per fanghi di origine mista, civile ed industriale
e ne aiuta la gestione mediante:

  • Rilevazione e Diagnostica di instabilità presenti, individuandone le possibili cause;
  • Segnalazione Early-Warning di instabilità, individuandone anche in questo caso le possibili cause;
  • Truobleshooting, fornendo indicazioni sui possibili rimedi, una volta individuate le cause di instabilità.

Il suo scopo è favorire la scelta delle condizioni di alimentazione più opportune, grazie ad un monitoraggio e controllo intelligente sul processo, evitando così i grossi problemi legati allo smaltimento di considerevoli quantità di fango non stabilizzato e ai lunghi tempi di intervento.

____________________________________

Per ulteriori informazioni:

Advertisements

[IT] Risparmio Energetico e Miglioramento Depurativo (C,N,P) mediante Controllo a SetPoint Dinamico dell’Ossigeno Disciolto: WDOxy Fuzzy

Lc2WDOxy-Fuzzy Controller

– Concentrazione dell’Ossigeno Disciolto e Controllo Energetico: un controllo adeguato del funzionamento di un impianto di depurazione e in particolare, del reattore biologico  (CSTR a “fanghi attivi” e con rimozione di N e P), si rende necessario sia per garantire la qualità dell’effluente e il rispetto dei limiti di legge, sia per contenere le spese di gestione: aspetto quest’ultimo che sta assumendo un’importanza sempre maggiore a causa dei crescenti costi dell’energia.  Infatti, il controllo della fornitura di aria in un impianto a fanghi attivi è importante per le seguenti motivazioni:

  • la fornitura di ossigeno è una delle principali voci di costo gestionali (10÷30 %);
  • la fornitura di ossigeno è un fattore determinante per l’affidabilità della qualità dell’effluente depurato;
  • la fornitura di ossigeno è un fattore determinante per l’efficienza della sedimentazione dei fanghi e dello stato di salute della biomassa.

Concentrazione dell’Ossigeno Disciolto e Bulking Filamentoso: la concentrazione dell’ossigeno disciolto (OD) nel reattore è un parametro di input di enorme importanza per la sua influenza sul bulking filamentoso e quindi, sulla sedimentabilità dei fanghi. La relazione tra il OD e lo SVI è direttamente influenzata dal carico organico (F/M): più elevato è il carico organico, più alta è la concentrazione di ossigeno disciolto necessaria per prevenire il bulking. La proliferazione di alcuni batteri filamentosi quali lo S.Natans, tipo 1701, e l’H. hydrossis in condizioni di basso ossigeno disciolto può essere attribuita all’elevata affinità (bassa costante di semisaturazione) che essi hanno per l’ossigeno.

Il controllo tradizionale con  Set-Point Prefissato dell’ossigeno disciolto:

  • Non si tiene conto della resa del processo di depurazione: necessaria la misura di un altro parametro (efficienza abbattimento NH4)
  • Non si tiene conto della variabilità del carico entrante: si fornisce troppo o troppo poco ossigeno per la maggior parte del tempo
  • Scarsa stabilità di controllo: i metodi di controllo tradizionali sono troppo semplificati e danno luogo ad instabilità

WDOxy

Il Modello WDOxy Fuzzy è una procedura dinamica di calcolo del Set-Point dell’OD, ovvero della concentrazione di ossigeno disciolto (minima) necessaria per le effettive esigenze real-time del metabolismo batterico della rimozione del carbonio e dell’azoto. La procedura WDOxy Fuzzy si basa su algoritmi bio-processistici e sull’utilizzo in “input” della misura on-line del valore di concentrazione NH4 (in alternativa: ORP), oltre alla misura on-line dell’OD e restituisce in “output” in tempo reale, il valore di set-point ottimale di OD.

Vantaggi del sistema a Set-Point OD Dinamico WDOxy-Fuzzy rispetto al sistema tradizionale a Set-Point Prefissato: 

  • Risposta immediata a picchi entranti e condizioni di variabilità di carico entrante grazie ad un adattamento continuo del set-point di ossigeno disciolto: adattamento del processo biologico alle variazioni di carico in ingresso. Il sistema a set-point OD Dinamico, a differenza del sistema di controllo tradizionale (a set – point fisso di ossigeno disciolto) che evidenzia ampie oscillazioni, dimostra una notevole stabilità nel raggiungimento delle condizioni di processo ottimali, anche di fronte a significative variazioni del carico entrante
  • Maggiore stabilità di processo ed efficienza depurativa, con particolare riferimento al processo di nitrificazione;
  • Elevato risparmio energetico 15-20%  e contestuale eliminazione degli eccessi di nitrificazione, in quanto viene evitata la fornitura di aria in eccesso ed ottenendo un miglior rendimento di trasferimento di ossigeno da parte dei diffusori.
  • Assicura l’efficienza del rendimento di rimozione richiesto.

SOLUZIONE a Set-Point Dinamico:  Liquicontrol NDP

LcLiquidcontrol NDP

EH

Liquicontrol NDP è un innovativo sistema di gestione e controllo dell’ossigeno disciolto in vasca d’aerazione e della concentrazione dell’azoto ammoniacale nell’effluente. Il valore di Azoto ammoniacale viene misurato in continuo, confrontato in tempo reale con il valore desiderato ed infine, utilizzato per il calcolo del set-point variabile dell’ossigeno disciolto. Il valore del set-point di ossigeno disciolto è poi confrontato con la misura dell’ossigeno disciolto presente in vasca in quel momento e determina, grazie ad una regolazione con logica fuzzy, l’erogazione dell’aria.

Per la stima del risparmio energetico relativo al sistema Liquicontrol NDP, è possibile utilizzare un parametro denominato Indice di Prestazione ENergetica: rapporto tra l’energia attiva assorbita dal comparto di aerazione ed i più significativi carichi inquinanti rimossi, pesati secondo l’effettivo contributo alla fornitura d’aria:

IPEN = Energia (kWh/d) / [0,3*CODrimosso (kg/d)+0,7*NH4+rimosso(kg/d)]

SISI-EHLiquicontrol

Ref. in primo piano:

_____________________________________________________________________________________

Per ulteriori informazioni o quotazioni di offerta:

[IT-EN] Algoritmi sullo sviluppo della Interdisciplinarietà, del Buonsenso e del Valore

front  Interdisciplinary Thinking by Knowledge Synthesis

(2011) In un mercato del lavoro contraddittorio e imprevedibile come quello attuale, nel quale le professionalità “medie” (“colletti bianchi”) sono sempre meno richieste, a favore di un dicotomico interesse per la categoria degli artigiani (cuochi, panettieri, ecc.) da una parte, emergenti professionalità “Knowledge Intensive” dall’altra. Queste ultime, frutto della globalizzazione della conoscenza, sono caratterizzate da una crescente competitività in termini di flessibilità e interdisciplinarità. La sfida da affrontare è il lavoro che manca, perché per decenni si è puntato solo alla riduzione dei costi, piuttosto che alla creazione di valore ed eliminazione degli sprechi. La sfida da affrontare è il lavoro che cambia, sia in termini temporali, che in termini concettuali: se è cambiata la domanda, l’offerta dovrà necessariamente adeguarsi.

Non possiamo pretendere che le cose cambino, se continuiamo a fare sempre le stesse cose...” (A. Einstein).  Il presente lavoro intende contribuire a dare possibili risposte alle seguenti domande:

  • è possibile potenziare la propria professionalità, per capire ed adeguarsi al nuovo livello di competitività?
  • è possibile potenziare la propria capacità di elaborare e sintetizzare l’enorme volume di dati e informazioni, con le quali dobbiamo confrontarci ogni giorno?
  • è possibile sviluppare, in uno scenario di complessità lavorativa, il “buonsenso” nella presa di decisione e la capacità di creare nuovo “valore”?
  • è possibile fare tutto ciò in un tempo sostenibile (mesi e non anni)?

La soluzione proposta in questi libro di appunti è l’apprendimento del “ragionamento interdisciplinare” (v. http://www.conoscenzaefficiente.it) e la metodologia proposta, nelle sue linee essenziali, si basa sul concetto dell’esistenza una struttura comune e ricorrente della conoscenza (Knowledge’s Common Frame) che, con le sue proprietà e dinamiche evolutive, rappresenta la “chiave di volta” del nuovo approccio. Pur contenendo algoritmi di tipo matematico, il testo segue un filo logico discorsivo che lo rende adatto a lettori con un “background” non solo di tipo tecnico-scientifico, ma anche economico-gestionale e politico.

Il libro è scritto in un inglese tecnico, ma contiene note e commenti in Italiano. Due casi applicativi della metodologia, come l’Interdisciplinary Knowledge Worker e il K-commerce, sono riportati ad esempio.

Something old, something new, something better…,   perhaps something for you.

[IT-EN] Referenze nell’Ambito del Knowledge Modeling e R&D

INDUSTRIAL & R&D PROJECTs

  • 2007-2009 – Progetto Privato Estero di Ricerca: “SENSOR Intelligence Vb” – “Intelligent Sensor Process Control System in Dairy Industry” – FrieslandFoods – The Netherlands
  • ARETHUSA Srl (NA): Progetto di Ricerca Industriale e Sviluppo Precompetitivo denominato “AMS – Autonomic Maintenance System – nell’ambito del bando per la concessione degli aiuti alle PMI in attuazione della misura 3.17 del POR Campania 2000/2006 Meta-distretto del settore ICT.
  • 2007-2009 POR PUGLIA 2000-2006 Misura 6.2 azione C – Progetti pilota -Sistema Esperto Integrato di Monitoraggio Ambientale e Antincedio in Aree Protette CYBERPARK 2000” – Gestione delle Aree Naturali Protette istituite e dei Siti Natura 2000 (SIC/ZPS)
  • 2007-2009 Progetto EU LIFE + Environment http://europa.eu.int/comm/environment/life/home.htm  – “BATTLE” – Sistema Esperto di Controllo Processo Tessile – ENEA – Best Available Technique for water reuse in TextiLE SdM
  • 2002-2004 – Progetto EU CRAFT  – European CRAFT Project “ELEN-TOOL”  On-line Measurement tool for Automatic Control of Must Fermentation process in Wine Industry – Progetto selezionato da CORDIS – Servizi di informazione ufficiale della Commissione Europea
  • 2000-2007 Progetto PON 2000-2006 “Ricerca, Sviluppo Tecnologico, Alta Formazione” – “Tecnologie Esperte per il teleControllo e la teleSorveglianza dell’Ambiente costruito Strategico” – T.E.C.S.A.S.
  • 2005-2007 Progetto PON TECSAS – Sistema Esperto per il Monitoraggio Remoto di Strutture Strategiche da Eventi Vibratori /Sismici “TECSAS” – ISIDE/UNINA-DAPS
  • 2008-2009 – Progetto Privato di Ricerca: “Gruppo PUTIGNANO” – “Sistema Informativo e Informatico dei Servizi di manutenzione – GMMS (Global Maintenance Management System)” Progetto IAS (Industria Acqua Siracusana)
  • 2007 – Progetto Privato di Ricerca: “GRIEC.A.M/TKM” – “Sistema Esperto Fuzzy per il monitoraggio diagnostico dei dati di funzionamento di unità ascensori”
  • 2005-2008 – Progetto Privato di Ricerca “Gruppo PRIMA SpA” –  “BALANCED SCORECARD System” – PRIMA SpA – Sistema per il Controllo Strategico delle Imprese attraverso la Business Intelligence
  • 2005-2008 – Progetto Privato di Ricerca “Gruppo PRIMA SpA” – “BUDGETARY CONTROL SYSTEM” – PRIMA SpA – Sistema per il Controllo Gestionale delle Imprese attraverso il Budgetary Control
  • 2005-2008 – Progetto Privato di Ricerca “Gruppo PRIMA SpA” – “ALLOCATORE RISORSE- Stampi/Presse” – PRIMA SpA – SCHEDULER e Sistema di Supporto alle Decisioni nella Allocazione delle Risorse (Stampi/Presse).
  • 2005-2008 – Progetto Privato di Ricerca “Gruppo PRIMA SpA” – “ALLOCATORE RISORSE- Stampi/Presse” – PRIMA SpA – SCHEDULER e Sistema di Supporto alle Decisioni nella Allocazione delle Risorse (Stampi/Presse).
  • 2005-2008 Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 -Sistema Integrato per la Gestione Telematica dei Cantieri di Edilistica e Impiantistica “GERECAN” – RITONNARO Srl
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Ricerca e Sviluppo prototipale di una piattaforma software per la gestione integrata dei processi produttivi tipici di una azienda di trasporti, finalizzata al monitoraggio e controllo della flotta a ziendale ed al miglioramento della logistica di gestione del “Customer Care” -LA MARRA Unipersonale s.r.l.
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Studio, realizzazione ed implementazione di un sistema sw integrato per il monitoraggio ed il controllo dei processi di produzione all’interno di un’azienda del settore metalmeccanico” – MECAL s.r.l.
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Ricerca, sviluppo e prototipazione di una piattaforma sw su rete intranet per la raccolta dei dati di produzione ed in grado di organizzare, con l’utilizzo di algoritmi su reti neurali a neuroni esperti, flussi di informazioni utili a supporto delle decisioni del management” – CARIND SpA
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 -Sistema Esperto per il Monitoraggio On-Line/Real-Time degli Odori dagli Impianti di Depurazione – “ODOURexp” – IAM SpA
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Sistema per la Pianificazione Esperta e per la Gestione della Produzione di Molle PROSPRING” – OMP Mollificio
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 -“Applicazioni e prime valutazioni operative di una Rete Neurale a Neuroni Esperti, finalizzata alla gestione di impianti di monitoraggio e controllo di processi complessi” – NEUREXP – ANOVA sas
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Analisi e sviluppo di una piattaforma internet multimediale per l’erogazione a distanza di servizi integrati e interattivi di assistenza tecnica e di formazione“Learning by Doing” per il trasferimento tecnologico personalizzato “Low-Cost” di soluzioni informatiche ITC nelle imprese ad alto potenziale di crescita – EASYDOING” – ANOVA sas
  • 2006-2009 -Progetto MiUR ART. 14 D.M. n. 593 dell’8 agosto 2000 – “Sviluppo prototipale di una soluzione ‘Mobile Worker’ per la gestione remota di attività strategiche di unità di business dislocate territorialmente” – RITONNARO Srl
  • 2000-2006 Progetto MURST “Prototipo di Sistema Esperto per il Recupero dei Centri Storici” – RECENT – Strumento di Analisi e Valutazione per il recupero strutturale e funzionale delle opere di edilizia storica SDDS
  • EUROPEAN COMMUNITY “Energy, Environment and Sustainable Development” Program – Progetto INFOWATER “Integrated Expert System for WasteWater Management Efficiency Control” – Exploratory Award Proposal N°EXAW-1999-01473 – Contract n° EVK1-CT-2000-35015
  • 2000-2003 Consorzio di Ricerca ENEA/TERRI (Trisaia) – “Sviluppo di un SISTEMA ESPERTO (X-BASE Tool) per il Recupero delle acque e dei reflui industriali nel settore Conciario e Tessile”
  • 2001-2002 Consorzio SESM (ALENIA Finmeccanica)- Analisi e Sviluppo di Metodologie per la Simulazione e per il Supporto alle Decisioni nella Gestione delle Flotte Intermodali per le Emergenze  2001-2003
  • COMAT Costruzioni SpA – Realizzazione di un SISTEMA ESPERTO per il Monitoraggio (INTESYS-WaterMultiSkill) di Processo dell’Impianto di Affinamento Acque – Taranto “Gennarini”
  • 2003-2004 Azienda Consortile ALTO CALORE (AV) – Realizzazione di un SISTEMA ESPERTO di Monitoraggio (INTESYS-WaterMultiSkill) della qualità delle acque sotterranee e superficiali della “Piana del Dragone”
  • 2000 -2004 Comune di VILLASIMIUS (CA) – SISTEMA ESPERTO (SCETTRO-INTESIS) per il Telecontrollo dei Processi di Depurazione delle Acque Reflue Urbane e del loro Trattamento Terziario per il Riutilizzo in agricoltura e per le infrastrutture turistiche.
  • Parco Scientifico e Tecnologico di Salerno e delle Aree Interne della Campania (SA) 2000-2001 – Sviluppo di un PROTOTIPO di Procedura Automatica per la Pianificazione e la Gestione delle Attività di Raccolta e Trasporto dei Rifiuti Solidi Urbani e Implementazione di un Sistema Software (Progetto SISTERR)
  • C.S.M./SESM – Centro Sviluppo Materiali – (RM) 1999 – Realizzazione di un Sistema di Monitoraggio Intelligente per la stima del Cromo Esavalente nelle acque di scarico della Laminazione Acciai Speciali – Progetto di Ricerca “KNOWATER” ECSC Project 7210 – EA/428-1996-1999.

PATENTS AND COPYRIGHT

PATENT registered on the 5th August 2008 – N° RM2008A000428 ANOVA/ENEA (50%) – ODC – On-Line Colour Index Detector – Instrumentation for Quantity of Colour and Turbidity detection in urban/industrial wastewater


PATENT registered on the 5th August 2008 – RM2008A000117 ANOVA/ENEA (50%) 
ODC – On-Line Colour Index Detector Sample Cell Device for Quantity of Colour and Turbidity detection in urban/industrial wastewater


PATENT registered on the 3rd of April 2009 – N°2009001653 ANOVA/ENEA (50%) – ODC – On-Line Colour Index Detector  – Software Module for Colour Index Application


COPYRIGHT registered on the 25th of November 2008 – N° 006998 ANOVA –  SMART PILOT – Business Strategic Positioning Abacus


COPYRIGHT registered on the 25th of November 2008 – N° 006997 ANOVA –SWATER PROfessional – MultiFunctional Testing & Upgrading Software Tool for Wastewater Treatment Plants


COPYRIGHT registered on the 22th of June – N° 003105 ANOVA – XBASE Tool (eXpertise Based Advisor System for Enterprise) – Expert Node in Fuzzy Neural Network development software Tool

[IT] Modello di Calcolo per Depuratori Nitro/Denitro a CICLI ALTERNATI: WWTP/check-Alt:

WWTP

Procedura di Calcolo per Denitro/Nitro a Cicli Alternati (in vasca unica)

Il processo di aerazione intermittente consente di ottenere la nitrificazione e denitrificazione in uno stesso reattore biologico durante le fasi di aerazione e non-aerazione. La portata di acque reflue influente è sostanzialmente continua. La fornitura ciclica (on/off) di aria consente la creazione la formazione di condizioni aerobiche ed anossiche adeguate per l’implementazione di fasi sequenziali di nitrificazione e denitrificazione. Dal punto di vista del controllo, il processo di aerazione intermittente può essere implementato attraverso strategie basate o su una  temporizzazione prefissata dei cicli, ovvero utilizzando strumentazione analitica per la misura on-line dei parametri di processo (es.: OD, ORP, pH, NH4, NO3). Confrontando lo schema di processo convenzionale (continuo) di nitrificazione/ denitrificazione con quello ad aerazione intermittente, quest’ultimo risulta caratterizzato da un più alto grado di flessibilità. Infatti, è possibile regolare facilmente la lunghezza della fase di nitrificazione e quella della denitrificazione, ad esempio, sulla base delle concentrazioni misurati in tempo reale nell’effluente. Inoltre, questo schema consente di evitare la fase di ricircolo dei nitrati (richiesto nello schema di pre-denitrificazione convenzionale), spesso caratterizzato da elevati valori di portata e consumo di energia.

Il Modello  di Funzionamento del Processo Nitro-Denitro a Cicli Alternati (WWPT/checkALT) proposto, si basa sostanzialmente sull’utilizzo di equazioni cinetiche e bilanci di massa descriventi il processo di nitrificazione e denitrificazione (Activated Sludge Model – ASM 1-3). Si tratta comunque di un processo meno intuitivo rispetto al Ciclo Continuo, ma più flessibile rispetto alla variabilità dei carchi inquinanti in ingresso. Vi è inoltre, una maggiore complessità di configurazione del Modello (set Tc/HRT, tn/td, NO3out, NH4out, ecc.].

. CA

WWTP/checkAlt per il dimensionamento ex-novo e la verifica di impianti esistenti (up-grading) è in grado di:

  • Verificare l’Applicabilità di un processo di depurazione biologica Nitro/Denitro a Cicli Alternati;
  • Dimensionare/Verificare il Volume del bacino del reattore biologico e le apparecchiature di processo (potenza compressori, miscelatori, ecc.);
  • Determinare i Tempi di Aerazione-Nitrificazione e di Stasi-Denitrificazione;
  • Valutare i Costi di Esercizio e il Risparmio Energetico rispetto ad un processo di tipo tradizionale;
  • Configurare il Sistema di Controllo Automatico dei Cicli Alternati Nitro/Denitro;
  • Follow-Up

FI

Il controllo in tempo reale dei tempi on/off di aerazione può essere effettuato sulla base del calcolo del Rapporto di Efficienza F, misurando on-line i valori di Ammoniaca in ingresso (NH4+in), Ammoniaca (NH4+out) e Nitrati (NOx-out) in uscita nell’effluente:

Φ = NOx-out/[(1-εn)×NH4+in – NH4+out + NOx-out]

______________________________________________________________________

Acquista il Modello di Calcolo e la Specifica Tecnica Descrittiva

______________________________________________________________________

Per info sul Modello e sul Sistema di Controllo a Cocli Alternati:

[IT] Servizi di Telemetria, Qualità dei Dati, Data Intelligence & Knowledge: Xeo4 – ANOVA

L’acquisizione di dati alfanumerici da sensori, dispositivi elettronici e informatici, è un processo (non gratuito) di fondamentale importanza per ottenere informazioni e per implementare nuova conoscenza. La qualità dei dati influenza l’intero sistema informativo e di comunicazione e può rendere le attuali avveniristiche tecnologie ICT e di condivisione delle informazioni inesorabilmente fallaci, se non addirittura dannose. La scarsa Qualità dei Dati può ostacolare o danneggiare seriamente l’efficienza e l’efficacia di organizzazioni e imprese. La crescente consapevolezza di tali ripercussioni ha condotto a importanti iniziative pubbliche come la promulgazione del “Data Quality Act” negli Stati Uniti e della direttiva 2003/98 del Parlamento Europeo (http://www.epa.gov/quality/informationguidelines/documents/EPA_InfoQualityGuidelines.pdf).

Xeo4 ed ANOVA propongono un Telecontrollo dell’ultima generazione assieme ai servizi di Data Intelligence & Knowledge finalizzati all’analisi e modellazione dei dati per il controllo di qualità e di efficienza dei processi con particolare riferimento al settore delle acque primarie e reflue all’ambiente, all’energia ed ai processi agro-alimentari.

Xeo4, consolidato fornitore di servizi di telecontrollo, ed Anova, fornitrice di servizi di Data Intelligence & Knowledge finalizzati alla gestione di qualità e dell’efficienza dei processi, al fine di ridurre i costi energetici e di manutenzione offrono ai Committenti un servizio integrato comprensivo di:

  • Telecontrollo e tele gestione degli impianti;
  • Report via web (off-line/ on line) relativi  a  analisi/qualificazione dei dati, analisi dei trend e rilevazioni delle anomalie;
  • Sviluppo di modelli software funzionali/econometrici di ottimizzazione dei costi energetici e di manutenzione:
  • Controllo del processo in tempo reale e rilevazione di eventi anomali e di pre-allarme.

La tecnologia di Telemetria e Telecontrollo WEB server “Rilheva” utilizza una architettura che consente di mantenere un collegamento GPRS simultaneo, bidirezionale e permanente tra le stazioni remote ed il centro di telecontrollo di Xeo4, sfruttando un APN pubblico. Il sistema di telecontrollo WEB server Rilheva proposto costituisce la più moderna, semplificata e sicura forma di gestione di telecontrollo di impianti distribuiti nel territorio, in quanto, i dati acquisiti, vengono gestiti con protocolli standard quali GPRS, TCP/IP, MODBUS/TCP, Web/http/XML, SQL con crittografia sulla infrastruttura trasmissiva che garantisce la totale sicurezza e protezione dei dati trasmessi. Le stazioni remote Rilheva acquisiscono ed elaborano localmente i segnali dagli impianti e li trasmettono al centro di controllo Xeo4 in base alle esigenze dei Committenti. Il suddetto centro di telecontrollo gestito direttamente e completamente da Xeo4 è in grado di svolgere le funzioni standard che consentono, in sintesi, di visualizzare in tempo reale lo stato di funzionamento degli impianti, visualizzare i dati storici, inviare comandi on/off e/o setpoint ai PLC/dispositivi dei Committenti installati presso gli impianti, gestire di allarmi, determinare  la derivata ed il cambio di stato (per i segnali digitali ed i superamento di soglie dei segnali analogici) inviando le sole variazioni significative in modo da ottimizzare il traffico dei dati tra il centro di controllo Xeo4 e le stazioni remote riducendo i costi dell’impiego delle rete GPRS. La modalità di trasmissione  è brevettata. Il  sistema di telecontrollo Rilheva  garantisce affidabilità, elevate prestazioni, semplicità di installazione e facilità di impiego. Le stazioni remote Rilheva possono essere collegate sia direttamente ai segnali digitali ed analogici degli impianti e sia a PLC, inverter, softstarter, data logger ed altri dispositivi per mezzo di porte seriali con protocollo Modbus RTU.

Interfaccia WEB:  gli operatori dei Committenti, operando dalle rispettive sedi, possono accedere al portale WEB del gestore Xeo4 mediante l’impiego di personal computer dotati di normale browser Internet. Il collegamento al portale Rilheva viene realizzato in totale sicurezza con SSL a 128 bit, usato per l’accesso alle banche, al fine di utilizzare le funzioni tipiche del telecontrollo Rilheva.

Vantaggi: l’impiego delle stazioni remote Rilheva GPRS Modbus RTU Master permette di avere i seguenti vantaggi:

  • Canoni di servizi per il collegamento GPRS contenuti e calcolati in base alla quantità di dati trasmessi con riduzione drastica dei costi di trasmissione grazie ad algoritmi di compressione;
  • Stazioni remote fornite in comodato d’uso gratuito ed il centro di telecontrollo è installato presso il centro di telecontrollo Xeo4 che è gestito direttamente e completamente da Xeo4 per cui non sono richiesti ai Committenti investimenti per il suddetto centro di telecontrollo;
  • Accesso di un numero illimitato di utenti presenti nel mondo per mezzo di connessioni Internet in completa sicurezza;
  • Gestione di un numero virtualmente illimitato di impianti in tempo reale

 Servizi per la qualità e ottimizzazione degli impianti: si possono distinguere tre livelli operativi:

  1. DATA ANALYSIS (DA): Qualificazione Dati/Informazioni – report prestazionali (KPI)

Il servizio (DA) prevede un primo intervento finalizzato alla qualificazione dei dati sulla base della identificabilità e tracciabilità (spazio-temporale) degli stessi della verifica del formato e del grado di accuratezza, nonchè della necessità di una riconciliazione degli errori. Viene effettuata inoltre un’analisi del trend storico e la valutazione di indicatori di Controllo e di Efficienza Prestazionale KPI.

  1. EVENT DETECTION (ED): Controllo Avanzato di Processo – Rilevazione Anomalie & Diagnosi

Il servizio (ED) si basa sulle seguenti attività fondamentali:

  • Analisi Multidimensionale dei dati;
  • Rilevazione e Identificazione di Eventi Anomali (FDD);
  • Estrazione di Conoscenza dai dati (KE).

L’estrazione di “Conoscenza” dai dati e dalle informazioni dello scenario di riferimento (impianto/processo), consente di “mettere in chiaro” i modi ed i comportamenti (regole) del sistema di monitoraggio, ciò consentirà di operare una successiva fase di modellazione finalizzata al controllo ed ottimizzazione di processo

  1. DATA MODELLING (DM): Modellazione Funzionale/Econometrica di supporto Decisionale

In sintesi le attività previste per lo sviluppo del servizio prevedono la realizzazione di:

  • Modelli di Controllo Funzionale ed Ottimizzazione di Processo;
  • Modelli di Controllo Predittivo (MPC);
  • Modelli Funzionali/Econometrici a Supporto delle Decisioni di Gestione.

logo_sfondo_trasparente

Servizi DIA-rev1

http://www.youtube.com/watch?v=DXdr0xkE_c8&feature=player_embedded

__________________________________________

Per info:

[IT] Il Valore della Conoscenza nell’Era della Net Economy (3° parte)

net_economy1

Nelle parti precedenti (prima e seconda) si è posto in evidenza come una conoscenza efficace (v. “Sapere è Potere”) nell’era della Net Economy debba operare anche in maniera efficiente, ovvero competitiva. Ancor prima di conoscerne le modalità, sappiamo che gli effetti di una conoscenza efficiente si traducono, per chi possiede gli strumenti giusti (v. “cassetta degli attrezzi”), in una rinnovata capacità di interazione interdisciplinare, di buonsenso condiviso e di semplificazione della complessità. Si è anche accennato ai “Modelli di Conoscenza” (Knowledge Models) come elementi catalizzatori della capacità di sintesi che diventa fondamentale in uno scenario di “Big Data” e aggiungerei, di “Big Info”.

In questa terza parte, si intende entrare più nel merito di quelli che possono essere gli strumenti operativi di gestione e di “misurazione” della stessa conoscenza, in termini di “quantità” e di “valore” producibile (v.ROI), vale a dire gli strumenti che, come nel caso delle attrezzature di una “officina meccanica”, consentono di smontarla, di ottimizzarla e di riutilizzarla.  Punto di partenza è senz’altro la ricerca di una definizione condivisa di “conoscenza”: si sa che è da sempre, un concetto complesso da descrivere.  È  molto più semplice provare a definire ciò che non è conoscenza: non è una collezione di dati o di informazioni, come ci ricorda A.Einstein: “L’informazione non è ancora conoscenza”. Naturalmente, si ritrovano molteplici definizioni del termine conoscenza in letteratura o nella rete Internet, correlate allo specifico contesto di riferimento o al concetto epistemologico, la maggior parte di esse correlate alla cognizione dei fatti, della verità o dei principi. Forse la definizione che meglio esprime la sua funzionalità, è data dall’acronimo DIKW (Data, Info, Knowledge, Wisdom), intesa come “catena della conoscenza”, in grado di rappresentare le relazioni funzionali tra dati, informazioni, conoscenza e saggezza. La “Catena della Conoscenza” DIKW non è solo un legame funzionale, ma esprime anche una azione: “ La conoscenza è informazione in azione” (C.O’Dell, C. J.Grayson). Con riferimento al DIKW e alle considerazioni precedenti, potremmo concludere come la conoscenza sia la facoltà umana risultante dall’interpretazione delle informazioni finalizzata all’azione, ovvero il risultato di un processo di inferenza e di sintesi (ragionamento), a partire dai dati verso la saggezza. Ora, la prima vera e al tempo stesso, devastante “novità” che scaturisce dall’osservazione dell’evoluzione del sapere nella Net Economy, è che la struttura della catena della conoscenza (DIKW), non risulta legata al peculiare ambito applicativo o “dominio” cui si riferisce e non dipende dal particolare “glossario dei termini” che in tale ambito viene utilizzato: i processi di ragionamento fautori della conoscenza, non sonofigli unici di madre vedova”, ma seguono in genere dinamiche trasversali e interdisciplinari che sono ripetitive secondo classi tipologiche. Nella migliore delle ipotesi queste ultime si inseriscono poi nel sistema inerziale (v. parte prima) nel quale valgono i principi base della natura (ecosostenibilità) e dell’uomo (v. Piramide dei bisogni primari di A.Maslow), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Un esempio per tutti: l’Ingegneria Biomedica è nata quando finalmente discipline diverse, storicamente inconciliabili tra di loro (se non proprio antitetiche), come la medicina, la fisica, l’ingegneria, l’informatica, ecc., si sono incontrate “interdisciplinarmente” nel suddetto sistema di riferimento inerziale, al fine di soddisfare un bene primario come quello della salute.  Esempi come questi, nell’era della Net-Economy, come è facile constatare, si moltiplicano quotidianamente in maniera esponenziale. Ecco quindi, che il termine “devastante” utilizzato prima, non è per nulla esagerato, ma stigmatizza la necessità di gestire questa evoluzione accelerata della conoscenza.  Ritornando alla nostra “cassetta degli attrezzi” e ai componenti da assemblare (informazioni), risulta prioritario anche stabilire un “linguaggio universale di sintesi” (che sia comprensibile e ripetibile al di fuori di ogni contesto linguistico-lessicale): possiamo allora far uso della simbologia e della logica matematica (che è appunto universale) per esprimere sinteticamente i concetti finora espressi. Ad esempio, per quanto riguarda la definizione di dati e informazioni, l’intera descrizione si ridurrebbe a :

  • Dato = Funz [Codice alfanumerico, Unità di Misura, Modalità di Acquisizione, Qualità, Validità]
  • Info = Funz [Espressione alfanumerica, Dinamica del Processo/Contesto di Riferimento, Processo di Inferenza, Grado di Influenza Post-Ante, Ciclo di Vita]

In altri termini, dati e informazioni sono esprimibili come funzione (Funz) o relazione delle variabili da cui dipendono, elencati nelle parentesi quadre “[]”. A questo punto sarà prioritario stabilire anche un sistema di misura della “quantità” di conoscenza e del “valore” (qualità) della stessa, ma ecco qui un’altra “devastante” questione: ma come è possibile misurare qualcosa di intangibile? La risposta è in un’altra domanda: nel ragionare e prendere ad es. una decisione, il nostro cervello risolve un’espressione algebrica o risolve per caso un sistema di equazioni? Certo che no. Allora forse c’è un “gap” tra quello che ci hanno insegnato a scuola nell’ambito della computazione dati (v. Matematica) e il modo “naturale” di computare informazioni, proprie del nostro cervello, modalità che è stata poi, in qualche modo “trasferita” nell’Informatica (v. Intelligenza Artificiale).

Qui si aprirebbe un ampio discorso sull’esistenza di altri tipi di matematica più vicine alla realtà quotidiana, come la “Matematica dei Frattali” (v. Benoît B. Mandelbrot, Les objets fractals: forme, hasard et dimension, 1986) la cui applicazione ci farebbe scoprire ad es. come la neve, gli alberi, il profilo delle nostre coste rispondono ad un criterio di autosimilarità e ripetitività, spiegherebbe addirittura “perché” in una macchina fotocopiatrice, per ridurre proporzionalmente un formato A3 in un equivalente A4 (la metà di A3) bisogna selezionare l’opzione “misteriosa” del 71%! Per fortuna c’è qualcuno che ha sintetizzato il concetto, in un meraviglioso filmato YouTube: “La vita sulla terra è basata sulla matematica frattale”:

(http://www.youtube.com/watch?v=O19K9EuxXWY&noredirect=1)

La difficoltà che si ritrova nella misura dell’intangibile è proprio nel fatto che siamo in genere restii a cambiare il nostro consolidato sistema di riferimento, avendo imparato da piccoli la computazione deterministica con i numeri (dati), anche se poi operiamo anche secondo processi di computazione non deterministica con le informazioni: si sa poi che la cosa più difficile è cambiare (a questo proposito, gli aforismi sul “cambiamento” si sprecano). Se però ad es. dobbiamo decidere cosa fare un venerdì sera, se uscire e andare in discoteca piuttosto che in palestra o al cinema, sulla base di informazioni sulle condizioni atmosferiche, sul nostro stato bioritmico, sul nostro oroscopo, o altro, noi non solo non risolviamo un algoritmo matematico, ma il fatto “sconvolgente” è che è possibile valutare (anche con una banale calcolatrice o con un foglio elettronico), qual è la soluzione più logica o più di “buon senso”, emulando in maniera esplicita quello che il nostro cervello fa naturalmente, in genere, in maniera implicita. Fare ciò risulta possibile (anche intuitivamente) perché le informazioni esercitano un “peso dinamico” sul nostro ragionamento e sul risultato finale (target) della nostra decisione, frutto di una elaborazione “quali-quantitativa”, inserita nel peculiare contesto della nostra esperienza e conoscenza.  Qui un esempio “numerico” concreto e ripetibile, aiuterebbe molto a fissare il concetto, ma per ovvi motivi di spazio ciò viene rimandato, insieme ad altri approfondimenti, in una prossima puntata di questo articolo.

[IT] Il Valore della Conoscenza nell’Era della Net Economy (2° parte)

net_economy1

Il valore della conoscenza nell’era della Net Economy (2° parte)

Si riprende qui la riflessione sul tema “valore della conoscenza nell’era della NetEconomy” (vediprima parte) dal punto in cui si erano evidenziate le contraddizioni e i paradossi presenti nel sistema “ragnatela”, la necessità di riferirsi ad un sistema inerziale valido e stabile rispetto agli eventi mutevoli contingenti, il bisogno di dotarsi di strumenti specifici per gestire la conoscenza in maniera competitiva (conoscenza efficiente).

In questa seconda parte, si intende entrare un po’ più nel merito di questi strumenti (cassetta degli attrezzi) che ci consentirebbero di acquisire, una capacità di interazione interdisciplinare, lo sviluppo del buonsenso condiviso e la capacità di semplificazione della complessità, “capabilities” fondamentali per operare in maniera competitiva (v. ragni e non prede) nell’ambito della gestione del valore nelle reti di conoscenza. Per definire questi strumenti di lavoro bisogna innanzitutto partire da quelli che sono gli elementi strutturali di base (“mattoni”) della conoscenza sui quali operare, ovvero i dati e le informazioni: può sembrare banale questa distinzione spesso confusa come sinonimia, ma è proprio qui che si nasconde la prima micidiale trappola concettuale, che avrebbe effetti devastanti soprattutto nell’ambito di una gestione informatica dei “Big Data”. Sarebbe come confondere ad es.: i bicchieri con l’acqua che può esserci al loro interno, gli archi con le rispettive frecce,  il nozionismo con la cultura, ecc. Semplificando molto  il concetto: i dati sono entità statiche, “fotografie” di fatti e sono quindi espliciti, in genere sono espressi in forma alfanumerica, prodotti da fonti (database, sensori,…) che ne condizionano poi la loro rispettiva “qualità”.  Leinformazioni sono entità dinamiche ed evolutive, caratterizzate da un proprio ciclo di vita, nascono in forma esplicita o latente dai dati, sono correlate ad uno o piùprocessi (mentali, personali, ambientali, produttivi, ecc.) ed esercitano su tali processi una propria influenza (o “peso”).  Ad esempio: misurando latemperatura, la pressione atmosferica e l’umidità relativa esterna (dati), si ottiene un’informazione che può essere correlata all’abbigliamento da indossare (processo), ma che è poi condizionata dal “peso” che la stessa informazione ha su una determinata persona piuttosto che su un’altra e dura lo spazio temporale (ciclo di vita) limitato alla rispettive necessità di uscire da casa… Le informazioni rappresentano quindi, la vera componente strutturale della conoscenza, che a sua volta nasce e si sviluppa attraverso processi di interazione e inferenza verso “target” conclusivi (ragionamento deduttivo)  e viceversa (ragionamento induttivo).

Gli strumenti di base per ricavare informazioni da sorgenti di dati sono notoriamente (v. Business Intelligence): la Statistica Multivariata, le tecniche di “Data Mining” e di “Knowledge Extraction”, nelle loro rispettive modalità di applicazione. L’output dell’applicazione di questi strumenti è la generazione/esplicitazione di informazioni, utili per sviluppare processi di ragionamento e quindi, creazione di conoscenza “efficace” (proattiva).  Nello scenario della Net-Economy, come si è già evidenziato nella prima parte, l’efficacia nei ragionamenti e della conoscenza rappresenta solo una condizione necessaria, ma non più sufficiente. Per aggiungere “efficienza” (competitività) è necessario utilizzare strumenti di livello superiore, come ad esempio, i “Modelli di Conoscenza” (v. Knowledge Models), che in molti casi risultano essere concetti preesistenti e noti, mentre in altri è necessario crearli o adattarli alle situazioni di nostro interesse. Cosa sono allora questi Modelli di Conoscenza e come si utilizzano? In un certo senso, sono più diffusi di quanto si possa pensare, anche se non ne siamo del tutto consapevoli, soprattutto rispetto ad un loro utilizzo “professionale”: è come utilizzare ad es. uno “scivolo” in un parco giochi e non sapere che lo stesso potrebbe essere in alcuni casi, il sistema più rapido per raggiungere una meta prefissata anziché utilizzare le comuni “scale”. Un Modello di Conoscenza è per definizione una “sintesi” (Pattern) di una moltitudine di informazioni e di ragionamenti, che “lavora” acquisendo in input direttamente  i dati da fonti esterne eterogenee ed è in grado di restituire in tempo reale in output  informazioni decisionali conclusive rispetto ad un target  prefissato.

Nella prossima riflessione (3° parte) entreremo nel “vivo” della descrizione operativa ed esemplificativa di questi strumenti per la gestione efficiente della conoscenza, per arrivare a introdurre i metodi di “misurazione” della stessa, vero “spartiacque” tra un uso hobbistico e un uso professionale del valore della conoscenza nello scenario della Net-Economy.

[IT] L’industria Agroalimentare incontra l’impronta idrica – Venezia 5 Luglio Workshop AISM – CVR

Strumenti di Green Management

testata_semplice-page0001

CICLO DI WORKSHOP E CORSI DI FORMAZIONE PROMOSSI DA AISM (ASSOCIAZIONE ITALIANA MARKETING) DIPARTIMENTO DI GREEN MARKETING

[IT] Conoscenza Efficiente: “Sapere è Potere” nell’Era della Net-Economy (1°Parte)

net_economy1

Il valore della conoscenza nell’era della Net Economy

Lo scenario della Net Economy, come condivisione digitalizzata di dati, di informazioni e di conoscenza, appare quanto mai complesso, pieno di contrasti e paradossi, per cui vien da pensare che si tratti di un fenomeno ben lungi dall’essere del tutto conosciuto e compreso. Come spunto di riflessione possiamo scegliere a caso alcune notizie degli ultimi giorni: dal ragazzo inglese di 17 anni (Nick D’Aloisio) che è diventato ricchissimo con una sua idea innovativa “Summly“ (un App per smartphone, in grado di visualizzare in sintesi notizie complesse) ricevendo ben 30 milioni dollari dalla Yahoo; al boom di disoccupati “dottori” in Italia, con incremento del 41,4% annuo; alla gestione dei “Big Data” e la questione degli “Open Data” nella creazione di nuovo valore nel business; il tutto in uno scenario globale di diffusione dell’accesso alla Rete e di utilizzo pro-attivo del Web, che vede gli utenti italiani al 23° posto nel mondo (thewebindex.org).

La Net-Economy può apparire come una enorme ragnatela nella quale ognuno può scegliere di diventare “preda” o “ragno”: essere ragni significa affrontare la complessità della Rete come opportunità e imparare a gestirla traendone benefici, essere prede significa non riconoscere la realtà in continuo mutamento o cercare ottusamente di negarla, rimanendo sempre più esclusi e vittime (“PREDE o RAGNI – Uomini e organizzazioni in uno scenario ragnatela della complessità”, di Alberto F. De Toni e Luca Comello).
È curioso poi osservare come in questa era di Net-Economy si stia paradossalmente moltiplicando il numero di offerte di “business coaching” e di ricette consulenziali “miracolose” per far uscire le imprese dalla crisi o gli imprenditori dalla disperazione: tutto ciò può essere interpretato, secondo il mio parere, come un “Pronto Soccorso”, immediato ed efficace, ma in genere non risolutivo in mancanza di una “cura” che miri ad una soluzione di medio lungo termine.
E allora qual è questa possibile cura? Se con uno zoom potessimo allontanarci dalla visuale contingente, in genere molto limitata per comprendere la dinamicità del cambiamento (sarebbe come osservare quello che succede fuori guardando dal buco della serratura del proprio uscio di casa…), ci aiuterebbe moltissimo individuare il sistema di riferimento inerziale, nel quale valgono i principi base della natura (Ecosostenibilità) e dell’uomo (v. Piramide dei Bisogni Primari di A.Maslow), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Una corretta gestione della conoscenza, con gli giusti strumenti di approccio (potere), consentirebbe di guidarci e di districarci nella complessità, seguendo la via più breve e duratura.

Fino all’inizio degli anni ’90, il detto “Sapere è Potere” (v. Francis Bacon) si riferiva soprattutto alla capacità della conoscenza di rendere forti e liberi di scegliere i detentori del sapere e del saper fare, ovvero al valore e all’efficacia della conoscenza nel raggiungimento dei propri obiettivi personali e professionali. “La conoscenza non ha valore se non la metti in pratica” scriveva Heber J.Grant. Nell’attuale scenario della Net-Economy e della Globalizzazione, una conoscenza efficace non è più sufficiente a garantire il suo “potere”. In un contesto di interazione “allargato” al mondo intero, assume un peso predominante il concetto di “efficienza della conoscenza”, ovvero la capacità adattarsi velocemente ad un contesto di interazione dinamico e mutevole e disperso.
In questo nuovo scenario di economia, prevalgono la capacità di interpretare/anticipare il mercato (le idee), il valore del prodotto/servizio (la qualità), la reputazione e la competenza (credibilità). “Non c’è economia dove non c’è efficienza” diceva Benjamin Disraeli, frase quanto mai attuale.
La domanda allora è: come è possibile rendere la nostra conoscenza, oltre che efficace (proattiva), anche efficiente (competitiva)? La soluzione è nascosta nel concetto secondo il quale per far bene un lavoro (Valore) bisogna innanzi tutto possedere la cassetta degli attrezzi giusti: noi siamo certamente in grado di immaginare cosa ci sia dentro la cassetta degli attrezzi ad es. di un idraulico, di un elettricista e di un medico, ma non conosciamo ancora bene cosa siano e come gestire efficacemente gli strumenti della conoscenza, a partire dai quattro componenti strutturanti DIKW (Dati, Informazioni, Conoscenza, Saggezza), per finire all’approccio interdisciplinare, alla capacità di sintesi e di semplificazione della complessità: ma, come si sente spesso in TV, tutto ciò sarà oggetto di una prossima riflessione sulla “conoscenza efficiente”.

ConEffhttp://www.conoscenzaefficiente.it/