Category Archives: BLOGs

WWTP-SBR: SEQUENCING BATCH REACTOR – Math Procedure for Small WWTP Designing (New!)

SBRenITA WWTP  SBR – Math procedure 

SBRs are a variation of the activated-sludge process. They differ from activated-sludge plants because they combine all of the treatment steps and processes into a single basin, or tank, whereas conventional facilities rely on multiple basins. According to a 1999 U.S. EPA report, an SBR is no more than an activated-sludge plant that operates in time rather than space.

The operation of an SBR is based on a fill-and-draw principle, which consists of five steps—fill, react, settle, decant, and idle. These steps can be altered for different operational applications. Fill During the fill phase, the basin receives influent wastewater. The influent brings food to the microbes in the activated sludge, creating an environment for biochemical reactions to take place. Mixing and aeration can be varied during the fill phase to create the following three different scenarios:

Static Fill – Under a static-fill scenario, there is no mixing or aeration while the influent wastewater is entering the tank. Static fill is used during the initial start-upphase of a facility, at plants that do not need to nitrify or denitrify, and during lowflow periods to save power. Because the mixers and aerators remain off, this scenario has an energy-savings component. Mixed Fill – Under a mixed-fill scenario, mechanical mixers are active, but the aerators remain off. The mixing action produces a uniform blend of influent wastewater and biomass. Because there is no aeration, an anoxic condition is present, which promotes denitrification. Anaerobic conditions can also be achieved during the mixed-fill phase. Under anaerobic conditions the biomass undergoes a release of phosphorous. This release is reabsorbed by the biomass once aerobic conditions are reestablished. This phosphorous release will not happen with anoxic conditions.

Aerated Fill – Under an aerated-fill scenario, both the aerators and the mechanicalmixing unit are activated. The contents of the basin are aerated to convert the anoxic or anaerobic zone over to an aerobic zone. No adjustments to the aerated-fill cycle are needed to reduce organics and achieve nitrification. However, to achieve denitrification, it is necessary to switch the oxygen off to promote anoxic conditions for denitrification. By switching the oxygen on and off during this phase with the blowers, oxic and anoxic conditions are created, allowing for nitrification and denitrification. Dissolved oxygen (DO) should be monitored during this phase so it does not go over 0.2 mg/L. This ensures that an anoxic condition will occur during the idle phase.

React This phase allows for further reduction or “polishing” of wastewater parameters. During this phase, no wastewater enters the basin and the mechanical mixing and aeration units are on. Because there are no additional volume and organic loadings, the rate of organic removal increases dramatically. Most of the carbonaceous BOD removal occurs in the react phase. Further nitrification occurs by allowing the mixing and aeration to continue—the majority of denitrification takes place in the mixed-fill phase. The phosphorus released during mixed fill, plus some additional phosphorus, is taken up during the react phase.

Settle During this phase, activated sludge is allowed to settle under quiescent conditions—no flow enters the basin and no aeration and mixing takes place. The activated sludge tends to settle as a flocculent mass, forming a distinctive interface with the clear supernatant. The sludge mass is called the sludge blanket. This phase is a critical part of the cycle, because if the solids do not settle rapidly, some sludge can be drawn off during the subsequent decant phase and thereby degrade effluent quality.

Decant During this phase, a decanter is used to remove the clear supernatant effluent. Once the settle phase is complete, a signal is sent to the decanter to initiate the opening of an effluent-discharge valve. There are floating and fixed-arm decanters. Floating decanters maintain the inlet orifice slightly below the water surface to minimize the removal of solids in the effluent removed during the decant phase. Floating decanters offer the operator flexibility to vary fill and draw volumes. Fixed-arm decanters are less expensive and can be designed to allow the operator to lower or raise the level of the decanter. It is optimal that the decanted volume is the same as the volume that enters the basin during the fill phase. It is also important that no surface foam or scum is decanted. The vertical distance from the decanter to the bottom of the tank should be maximized to avoid disturbing the settled biomass.

Idle This step occurs between the decant and the fill phases. The time varies, based on the influent flow rate and the operating strategy. During this phase, a small amount of activated sludge at the bottom of the SBR basin is pumped out—a process called wasting.


The procedure WWTP-SBR is freely available including Mathematical Model and Technical Specification on the algorithms used in calculation:

  • Software License (. Xls)
  • User Manual (. Pdf) – Technical Specification (. Pdf)
  • 12 months / Technical Assistance

SBR Manual (Guidelines – Operational Suggestions – TroubleShooting) To purchase or for more info:

WDOxy-Fuzzy: On-Demand Dissolved Oxygen Control for WWTPs Efficiency with Energy Saving (by “AUTOMAZIONE Oggi” – N.370 Marzo 2014)

WDoxy Dissolved Oxygen Control for WWTPs Efficiency with Energy Saving  

(by “AUTOMAZIONE Oggi”  – N.370 Marzo 2014)

WDOxy-Fuzzy is a software procedure aimed at achieve an optimal control of the biological depuration of urban/industrial wastewater by using Fuzzy Logic algorithms based on bio-process behaviors and on on-line data derived from field instrumentation. These refers to the detection of values of ​​Ammonium NH4+ concentration (alternatively: on ORP) and on DO (Dissolved Oxygen) values in oxidation, all that by returning as a real time “output”, the optimal set-point of the process control parameters (DO, flow rate of aeration, recirculation, etc..). In this way, WDOxy-Fuzzy procedure determines the optimal value (as dynamic set-point) of DO concentration, that is able to ensure in every operative phase of depuration process the following points:

  1. autotrophic and heterotrophic bacteria metabolism in the depuration process;
  2. non-proliferation and tigger of Bulking conditions control;
  3. minimization of energy consumption (kWh)

The software is implemented in the typical remote control systems, also directly implemented into dedicated PLC to the Dissolved Oxygen local control loop. Since over two years WDOxy-Fuzzy is used on sewage treatment plants with nutrient removal, on small to medium in size WWTPs and it is operating in continuous or with intermittent aeration.

WDOxy-Fuzzy, designed and developed by ANOVA in Naples (Giovanni Mappa), it is used by more than two years from large international companies operating in the field of analytical instrumentation and process control, having successfully passed the Functional Testing on field already in 2012.

Principles of Operation

The principle of operation of WDOxy-Fuzzy is based on the following bio-process correlations:

1)   Biological Oxygen Request and Dissolved Oxygen set-point: the wastewater aerobic biological treatment is based on the fact that the some pollutants (organics, nutrients, etc.) are the “food” (substrate) for “heterotrophic” and “autotrophic” bacteria which accrue as “biomass”, in a fixed volume (reactor). In order that the biomass can metabolize the pollutant substrate in an aqueous environment, it is necessary that it can “breathe”, or dispose of a sufficient dissolved oxygen concentration (DO)  into treated wastewater. The typical used solution to provide DO in this case is, as known, to adopt systems of insufflations and diffusion of air which, exploiting the principle of the solubility of the gas (Henry’s Law), provides oxygen to the entire biomass contained in the reactor. However, considering that (under std conditions) 1m3 of air contains about 21vol %O2, it follows that it is necessary to provide an air flow rate 4-5 times that required, with respect to pure oxygen O2. In function of the different operating parameters of the process (temperature, atmospheric pressure, substrate concentration, biomass concentration, etc.), the oxygen contained in the air is transformed into DO concentration, after having used the energy required, that is about 0.5 kWh for each Kg/h of O2 required.

2)   Dissolved Oxygen set-point and Bulking: dissolved oxygen concentration DO in the reactor is a parameter of a great importance also for its influence with respect to the phenomenon of Bulking and, consequently, on the sludge sedimentation. This correlation is directly influenced by the organic load F/M (Food to Microorganisms): higher is F/M, higher is the concentration of dissolved oxygen necessary to prevent the Bulking (caused by some filamentous bacteria such as S.Natans, Type 1701 and H.hydrossis)

3)     DO set point and Energy Savings: usually biological treatment process takes place under dynamic conditions where input loads may change considerably in space and time. The dynamics of the DO value of concentration in water, compared to dynamics of bacterial metabolism, is an average ratio of about 5/20, that means a variation of concentration of DO in the water takes place in the order of a few minutes (starting from the activation of air insufflations), while because DO as O2 is completely used by biomass to metabolize the substrate it takes 15-20mins. All this allows to focus on the following points:

  • DO is a physico-chemical parameter whose numerical value (expressed in mg/l) is to mean a greater or lesser ” availability ” of oxygen for the bacterial metabolism. This value, however, is linked in turn to the different dynamics of transfer within the biomass (temperature, oxygen gradient, size of the flakes of mud, etc.). In other words, and simplifying the concept: between being in a situation in which DO assumes high values ​​for short periods of time, compared to the case where the DO values ​​are lower for prolonged times, this latter case is certainly not only desirable but also energetically less costly.
  • values of DO too low in relation to the actual needs of the process, i.e. the F/M ratio between the substrate (pollutant) and biomass concentration, favors the proliferation of Filamentous Bacteria, at the expense of bacteria “Floc-Forming” that are required for the proper functioning of the process (sedimentation-recirculation): that means to face to the serious outcomes both from the operational point of view, that from the standpoint of sanitary;
  • DO high values (>2.5 mg/l) do not provide generally further benefits to the bacterial metabolism, because biologic dynamics of using dissolved oxygen are, as already stated, fixed and slower than DO chemism, in every case. In addition, more seriously, DO high values, besides to be an useless waste of energy, may be symptomatic of some problems related to the proper functioning of the process, i.e. a too low biomass concentration, or an insufficient organic load, or presence of toxic substances which have weakened the vitality of the biomass, etc.. Extending the concept, in a balanced system of “substrate – biomass – oxygenation”, a low value (0.4-0.8 mg/l) of average concentration of dissolved oxygen DO, it may even be a good indicator of functionality and efficiency energy, as it is to mean that the insufflations of air,  produce the DO that is necessary and sufficient for the needs of the process.


WDOxy-Fuzzy Advantages

In the technical-scientific literature regarding the biological purification of wastewater, is typically reported the value of set-point DO of about 1-2 mg/l, but it is a “safety value” which guarantees neither the state of health of the process, nor the protection from an energy expenditure.

In general, the advantages of WDOxy-Fuzzy system with dynamic set-point DO, compared to the traditional system (fixed set-point OD ) can be summarized in the following points:

  • immediate response to peaks in the variability of hydraulic loads and pollutant input through a continuous adaptation of the set-point of dissolved oxygen;
  • Increased process stability and purifying efficiency, with particular reference to the nitrification process;
  • an high energy saving about 15-20 %, and simultaneous elimination of the excesses of nitrification, as it is prevented the supply of excess air by obtaining a better efficiency of the transfer of oxygen by the diffusers;
  • greater control of the continuity of the performance of removal, in relation to the limits of effluent quality.



For more info:

WDOxy-Fuzzy: Controllo On-Demand dell’Ossigeno Disciolto per il Miglioramento – Depurativo con Risparmio Energetico

WDoxy Modello WDOxy-Fuzzy

(AUTOMAZIONE Oggi  – N.370 Marzo 2014)

WDOxy-Fuzzy è una procedura software finalizzato al controllo ottimale degli impianti di depurazione biologica di acque reflue civili/industriali e che utilizza algoritmi bio-processistici in Logica Fuzzy e dati on-line derivanti dalla strumentazione in campo. Quest’ultima si riferisce alla rilevazione dei valori di concentrazione dell’Ammonio NH4+ (in alternativa: ORP) e dell’OD in aerazione, restituendo come “output” in tempo reale, i valori ottimali di set-point dei parametri di controllo processo (OD, portata di aerazione, di ricircolo, ecc.).

WDOxy-Fuzzy determina quindi, il valore ottimale (set-point variabile)della concentrazione dell’OD che garantisce in ogni momento del processo depurativo:

  • il metabolismo dei batteri eterotrofi e autotrofi protagonisti del processo depurativo;
  • il controllo delle condizioni di non-innesco e proliferazione del Bulking;
  • la minimizzazione dei consumi energetici (kWh) Il software è implementabile nei tipici Sistemi di Telecontrollo (SCADA), ma anche direttamente nei PLC dedicati al loop di controllo locale dell’Ossigeno Disciolto.

Da oltre due anni WDOxy-Fuzzy viene utilizzato su impianti di depurazione con rimozione nutrienti, di piccole-medie dimensioni, sia funzionanti in continuo, sia con aerazione intermittente. WDOxy-Fuzzy, progettato e sviluppato dalla società ANOVA di Napoli, viene utilizzato da oltre due anni da grandi aziende internazionali del settore strumentazione analitica e controllo di processo, avendo superato con successo già nel 2012 i Test di Funzionalità sul Campo.

Per info:

Da Big Data a Big Performance: Cloud Platform e la Business Intelligence 3.0 (di Massimiliano Cravedi)

sponsor_xeo4_logoQual è l’innovazione nel Telecontrollo?

La nostra visione è che i big data siano solo l’inizio: occorre trasformare la mole di dati raccolti in informazioni pronte ad essere utilizzate. Per cosa? Per risparmiare energia, per migliorare le performance e aumentare la produttività, definendo opportuni KPI con cui monitorare, intervenire, e soprattutto redigere budget di spesa ottimizzati. Oltre a questo, anche per educare le persone a comportamenti più virtuosi verso un uso più consapevole delle risorse energetiche.

Il Retail management è un campo di applicazione estremamente fertile per la nostra soluzione, che consente di ottimizzare il rapporto tra consumi energetici, performance di vendita e soddisfazione del cliente finale. La case history che vi presenteremo vi mostrerà come, attraverso l’integrazione tra edificio, persone e impianto, ogni store, boutique e filiale bancaria possano diventare strutture efficienti, sia in termini energetici sia manutentivi, attraverso un percorso chiaro con ROI definiti.

Se il 2.0 è l’onnipresenza dei dati, il futuro prossimo è la loro trasformazione in performance: verso una business intelligence 3.0

– See more at:

Knowledge Management vs Knowledge Engineering

 Knowledge Management vs Knowledge Engineering

The terms knowledge management and knowledge engineering seem to be used as interchangeably as the terms data and information used to be. But if you were to ask either a manager or an engineer if their jobs were the same, I doubt if you would get them to agree they were. A brief examination of the terms management and engineering shows that to manage is to exercise executive, administrative and supervisory direction, where as, to engineer is to lay out, construct, or contrive or plan out, usually with more or less subtle skill and craft.

The main difference seems to be that the (knowledge) manager establishes the direction the process should take, where as the (knowledge) engineer develops the means to accomplish that direction. Not all that much different from the relationships in any other discipline. So therefor we should find the knowledge managers concerned with the knowledge needs of the enterprise. We should see them doing the research to understand what knowledge is needed to make what decision and enable what actions. They should be taking a key role in the design of the enterprise and from the needs of the enterprise establishing the enterprise level knowledge management policies. It is to the knowledge managers that the user should go with their “need to know“.

On the other hand, if we were look in on the knowledge engineers we should find them working on such areas as data and information representation and encoding methodologies, data repositories, work flow management, groupware technologies, etc,. The knowledge engineers would most likely be researching the technologies needed to meet the enterprise’s knowledge management needs. The knowledge engineers should also be establishing the processes by which knowledge requests are examined, information assembled, and knowledge returned to the requestor. What is significant in both of these “job descriptions” is that nowhere do I claim that either is the “owner” of the enterprise knowledge, information, or data. Ownership remains the prerogative of the enterprise, or the enterprise element manager, or even the individual depending on the established policies for enterprise level knowledge ownership. As we might well expect, other views exist as to the roles of the knowledge manager and the knowledge engineer. For example, to the developer of knowledge-base computer software systems, the knowledge engineer is most likely a computer scientist specializing the development of artificial intelligence knowledge bases. From the view of the corporate board-room the knowledge manager may be the Chief Information Officer (CIO) or the person in charge of the Information Resource Management (IRM). The point is, when discussing terms such as knowledge manager or knowledge engineer, or any other role designation, it is important that all parties share a clear mutual understanding.  Brian D. Newman © January 5, 1996

Multi-Perspective Modeling for Knowledge Management  and Knowledge Engineering (John Kingston)  Multi-Perspective Modeling

The purpose of this thesis is to show how an analytical framework originally intended for information systems architecture can be used to support knowledge management, knowledge engineering and the closely related discipline of ontology engineering. The framework suggests analysing information or knowledge from six perspectives (Who,What, How, When, Where and Why) at up to six levels of detail (ranging from “scoping” the problem to an implemented solution). The application of this framework to each of CommonKADS’ models is discussed, in the context of several practical applications of the CommonKADS methodology. Strengths and weaknesses in the models that are highlighted by the practical applications are analysed using the framework,
with the overall goal of showing where CommonKADS is currently useful and where it could be usefully extended. The same framework is also applied to knowledge management; it is established that “knowledge management” is in fact a wide collection of different approaches and techniques, and the framework can support and extend every approach to some extent, as well as the decision which approach is best for a particular case. Specific applications of using the framework to model medical knowledge and to resolve common problems in ontology development are presented.
The thesis also includes research on mapping knowledge acquisition techniques to CommonKADS’ models (and to the framework); proposing some extensions to CommonKADS’ library of generic inference structures; and it concludes with a suggestion for a “pragmatic” KADS for use on small projects. The aim is to show that this framework both characterises the knowledge required for both knowledge management and knowledge engineering, and can provide a guide to good selection of knowledge management techniques. If the chosen technique should involve knowledge engineering, the wealth of practical advice on CommonKADS in this thesis should also be beneficial.

Knowledge Engineering

[IT-EN] Algoritmi sullo sviluppo della Interdisciplinarietà, del Buonsenso e del Valore

front  Interdisciplinary Thinking by Knowledge Synthesis

(2011) In un mercato del lavoro contraddittorio e imprevedibile come quello attuale, nel quale le professionalità “medie” (“colletti bianchi”) sono sempre meno richieste, a favore di un dicotomico interesse per la categoria degli artigiani (cuochi, panettieri, ecc.) da una parte, emergenti professionalità “Knowledge Intensive” dall’altra. Queste ultime, frutto della globalizzazione della conoscenza, sono caratterizzate da una crescente competitività in termini di flessibilità e interdisciplinarità. La sfida da affrontare è il lavoro che manca, perché per decenni si è puntato solo alla riduzione dei costi, piuttosto che alla creazione di valore ed eliminazione degli sprechi. La sfida da affrontare è il lavoro che cambia, sia in termini temporali, che in termini concettuali: se è cambiata la domanda, l’offerta dovrà necessariamente adeguarsi.

Non possiamo pretendere che le cose cambino, se continuiamo a fare sempre le stesse cose...” (A. Einstein).  Il presente lavoro intende contribuire a dare possibili risposte alle seguenti domande:

  • è possibile potenziare la propria professionalità, per capire ed adeguarsi al nuovo livello di competitività?
  • è possibile potenziare la propria capacità di elaborare e sintetizzare l’enorme volume di dati e informazioni, con le quali dobbiamo confrontarci ogni giorno?
  • è possibile sviluppare, in uno scenario di complessità lavorativa, il “buonsenso” nella presa di decisione e la capacità di creare nuovo “valore”?
  • è possibile fare tutto ciò in un tempo sostenibile (mesi e non anni)?

La soluzione proposta in questi libro di appunti è l’apprendimento del “ragionamento interdisciplinare” (v. e la metodologia proposta, nelle sue linee essenziali, si basa sul concetto dell’esistenza una struttura comune e ricorrente della conoscenza (Knowledge’s Common Frame) che, con le sue proprietà e dinamiche evolutive, rappresenta la “chiave di volta” del nuovo approccio. Pur contenendo algoritmi di tipo matematico, il testo segue un filo logico discorsivo che lo rende adatto a lettori con un “background” non solo di tipo tecnico-scientifico, ma anche economico-gestionale e politico.

Il libro è scritto in un inglese tecnico, ma contiene note e commenti in Italiano. Due casi applicativi della metodologia, come l’Interdisciplinary Knowledge Worker e il K-commerce, sono riportati ad esempio.

Something old, something new, something better…,   perhaps something for you.

[EN] WaterEnergyFood Concept

The Water, Energy and Food Security Nexus 

Nexus approach can enhance water, energy and food security by increasing efficiency, reducing trade-offs, building synergies and improving governance across sectors.


The Water, Energy and Food Security Nexus

Productivity and the availability of water, energy and land vary enormously between regions and production systems. There is a large potential to increase overall resource use efficiency and benefits in production and consumption, e.g. by addressing intensive agriculture (which often has higher water productivity but lower energy productivity than other forms of agriculture) or water- and energy-intensive meat products. The nexus approach can boost this potential by addressing externalities across sectors. For example, nexus thinking would address the energy intensity of desalination (also termed ‘bottled electricity’), or water demands in renewable energy production (e.g. biofuels and some hydropower schemes) or water demands of afforestation for carbon storage. Also, action to avoid or land degradation saves water and energy, for example by increasing soil water storage and groundwater recharge, as well as reducing the use of energyintensive fertiliser. See also:


[EN] Water Footprint


Global Water Footprint Standard

The Global Water Footprint Standard – developed through a joint effort of the Water Footprint Network, its partners, and scientists of the University of Twente in the Netherlands – has garnered international support from major companies, policymakers, NGOs and scientists as an important step toward solving the world’s ever increasing water problems. The standard is contained in the Water Footprint Assessment Manual.

[IT] Analisi task-force area di libero scambio UE-USA

Analisi task-force area di libero scambioUE-USAL’analisi della task-force italiana sull’impattodella nuova area di libero scambio UE-USAper le imprese e i professionisti.

Il report analizza l´impatto per settore e per

area geografica e delinea le prospettive

strategiche del patto.

Scarica il report, clicca qui


[IT] Il Valore della Conoscenza nell’Era della Net Economy (3° parte)


Nelle parti precedenti (prima e seconda) si è posto in evidenza come una conoscenza efficace (v. “Sapere è Potere”) nell’era della Net Economy debba operare anche in maniera efficiente, ovvero competitiva. Ancor prima di conoscerne le modalità, sappiamo che gli effetti di una conoscenza efficiente si traducono, per chi possiede gli strumenti giusti (v. “cassetta degli attrezzi”), in una rinnovata capacità di interazione interdisciplinare, di buonsenso condiviso e di semplificazione della complessità. Si è anche accennato ai “Modelli di Conoscenza” (Knowledge Models) come elementi catalizzatori della capacità di sintesi che diventa fondamentale in uno scenario di “Big Data” e aggiungerei, di “Big Info”.

In questa terza parte, si intende entrare più nel merito di quelli che possono essere gli strumenti operativi di gestione e di “misurazione” della stessa conoscenza, in termini di “quantità” e di “valore” producibile (v.ROI), vale a dire gli strumenti che, come nel caso delle attrezzature di una “officina meccanica”, consentono di smontarla, di ottimizzarla e di riutilizzarla.  Punto di partenza è senz’altro la ricerca di una definizione condivisa di “conoscenza”: si sa che è da sempre, un concetto complesso da descrivere.  È  molto più semplice provare a definire ciò che non è conoscenza: non è una collezione di dati o di informazioni, come ci ricorda A.Einstein: “L’informazione non è ancora conoscenza”. Naturalmente, si ritrovano molteplici definizioni del termine conoscenza in letteratura o nella rete Internet, correlate allo specifico contesto di riferimento o al concetto epistemologico, la maggior parte di esse correlate alla cognizione dei fatti, della verità o dei principi. Forse la definizione che meglio esprime la sua funzionalità, è data dall’acronimo DIKW (Data, Info, Knowledge, Wisdom), intesa come “catena della conoscenza”, in grado di rappresentare le relazioni funzionali tra dati, informazioni, conoscenza e saggezza. La “Catena della Conoscenza” DIKW non è solo un legame funzionale, ma esprime anche una azione: “ La conoscenza è informazione in azione” (C.O’Dell, C. J.Grayson). Con riferimento al DIKW e alle considerazioni precedenti, potremmo concludere come la conoscenza sia la facoltà umana risultante dall’interpretazione delle informazioni finalizzata all’azione, ovvero il risultato di un processo di inferenza e di sintesi (ragionamento), a partire dai dati verso la saggezza. Ora, la prima vera e al tempo stesso, devastante “novità” che scaturisce dall’osservazione dell’evoluzione del sapere nella Net Economy, è che la struttura della catena della conoscenza (DIKW), non risulta legata al peculiare ambito applicativo o “dominio” cui si riferisce e non dipende dal particolare “glossario dei termini” che in tale ambito viene utilizzato: i processi di ragionamento fautori della conoscenza, non sonofigli unici di madre vedova”, ma seguono in genere dinamiche trasversali e interdisciplinari che sono ripetitive secondo classi tipologiche. Nella migliore delle ipotesi queste ultime si inseriscono poi nel sistema inerziale (v. parte prima) nel quale valgono i principi base della natura (ecosostenibilità) e dell’uomo (v. Piramide dei bisogni primari di A.Maslow), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Un esempio per tutti: l’Ingegneria Biomedica è nata quando finalmente discipline diverse, storicamente inconciliabili tra di loro (se non proprio antitetiche), come la medicina, la fisica, l’ingegneria, l’informatica, ecc., si sono incontrate “interdisciplinarmente” nel suddetto sistema di riferimento inerziale, al fine di soddisfare un bene primario come quello della salute.  Esempi come questi, nell’era della Net-Economy, come è facile constatare, si moltiplicano quotidianamente in maniera esponenziale. Ecco quindi, che il termine “devastante” utilizzato prima, non è per nulla esagerato, ma stigmatizza la necessità di gestire questa evoluzione accelerata della conoscenza.  Ritornando alla nostra “cassetta degli attrezzi” e ai componenti da assemblare (informazioni), risulta prioritario anche stabilire un “linguaggio universale di sintesi” (che sia comprensibile e ripetibile al di fuori di ogni contesto linguistico-lessicale): possiamo allora far uso della simbologia e della logica matematica (che è appunto universale) per esprimere sinteticamente i concetti finora espressi. Ad esempio, per quanto riguarda la definizione di dati e informazioni, l’intera descrizione si ridurrebbe a :

  • Dato = Funz [Codice alfanumerico, Unità di Misura, Modalità di Acquisizione, Qualità, Validità]
  • Info = Funz [Espressione alfanumerica, Dinamica del Processo/Contesto di Riferimento, Processo di Inferenza, Grado di Influenza Post-Ante, Ciclo di Vita]

In altri termini, dati e informazioni sono esprimibili come funzione (Funz) o relazione delle variabili da cui dipendono, elencati nelle parentesi quadre “[]”. A questo punto sarà prioritario stabilire anche un sistema di misura della “quantità” di conoscenza e del “valore” (qualità) della stessa, ma ecco qui un’altra “devastante” questione: ma come è possibile misurare qualcosa di intangibile? La risposta è in un’altra domanda: nel ragionare e prendere ad es. una decisione, il nostro cervello risolve un’espressione algebrica o risolve per caso un sistema di equazioni? Certo che no. Allora forse c’è un “gap” tra quello che ci hanno insegnato a scuola nell’ambito della computazione dati (v. Matematica) e il modo “naturale” di computare informazioni, proprie del nostro cervello, modalità che è stata poi, in qualche modo “trasferita” nell’Informatica (v. Intelligenza Artificiale).

Qui si aprirebbe un ampio discorso sull’esistenza di altri tipi di matematica più vicine alla realtà quotidiana, come la “Matematica dei Frattali” (v. Benoît B. Mandelbrot, Les objets fractals: forme, hasard et dimension, 1986) la cui applicazione ci farebbe scoprire ad es. come la neve, gli alberi, il profilo delle nostre coste rispondono ad un criterio di autosimilarità e ripetitività, spiegherebbe addirittura “perché” in una macchina fotocopiatrice, per ridurre proporzionalmente un formato A3 in un equivalente A4 (la metà di A3) bisogna selezionare l’opzione “misteriosa” del 71%! Per fortuna c’è qualcuno che ha sintetizzato il concetto, in un meraviglioso filmato YouTube: “La vita sulla terra è basata sulla matematica frattale”:


La difficoltà che si ritrova nella misura dell’intangibile è proprio nel fatto che siamo in genere restii a cambiare il nostro consolidato sistema di riferimento, avendo imparato da piccoli la computazione deterministica con i numeri (dati), anche se poi operiamo anche secondo processi di computazione non deterministica con le informazioni: si sa poi che la cosa più difficile è cambiare (a questo proposito, gli aforismi sul “cambiamento” si sprecano). Se però ad es. dobbiamo decidere cosa fare un venerdì sera, se uscire e andare in discoteca piuttosto che in palestra o al cinema, sulla base di informazioni sulle condizioni atmosferiche, sul nostro stato bioritmico, sul nostro oroscopo, o altro, noi non solo non risolviamo un algoritmo matematico, ma il fatto “sconvolgente” è che è possibile valutare (anche con una banale calcolatrice o con un foglio elettronico), qual è la soluzione più logica o più di “buon senso”, emulando in maniera esplicita quello che il nostro cervello fa naturalmente, in genere, in maniera implicita. Fare ciò risulta possibile (anche intuitivamente) perché le informazioni esercitano un “peso dinamico” sul nostro ragionamento e sul risultato finale (target) della nostra decisione, frutto di una elaborazione “quali-quantitativa”, inserita nel peculiare contesto della nostra esperienza e conoscenza.  Qui un esempio “numerico” concreto e ripetibile, aiuterebbe molto a fissare il concetto, ma per ovvi motivi di spazio ciò viene rimandato, insieme ad altri approfondimenti, in una prossima puntata di questo articolo.