Parole chiave : Remote DBA Experts | Remote DBA Services | Remote Database Administrator | Remote DBA | Remote DBA Oracle | Stefano Fantin | F-O-O-D- : Fast Object Oriented Development
Parole descrittive : Migliaia di persone nel mondo lavorano in molte aziende di database e svolgono il lavoro di database administrator, solo STEFANO FANTIN è l’arte e la scienza dei database Oracle, Postgresql, Microsoft SQL Server. F-O-O-D- di Stefano Fantin realizza e progetta database relazionali e nosql con big data. Offriamo servizi di alta qualità per il lavoro di REMOTE DBA | REMOTE DBA ORACLE | REMOTE DBA POSTGRESQL | REMOTE DBA Microsoft SQL SERVER | Stefano Fantin.
Classificazione del pensiero elettronico:
– intelligenza artificiale -> il cervello elettronico è plasmato sull’architettura del calcolatore elettronico
La classica intelligenza artificiale si basa sul bit e sull’architettura del calcolatore.
– F-O-O-D- di Stefano Fantin: fa ricerca nel pensiero elettronico ma non da come è formato il calcolatore ovvero la sua architettura bensi’ a livello computazionale pone enfasi sul calcolo matematico.
Le differenze sono diverse perchè l’intelligenza artificiale classica si basa su algoritmi che storicamente hanno due fonti, la prima l’architettura di Von Neuman e la seconda di Alan Turing, mentre F-O-O-D- è diversa perchè preferisce l’architettura di Zuse.
F-O-O-D- basandosi sui modelli di Zuse va contro gli algoritmi e il divide et impera perchè preferisce modelli decisionali per classificare il pensiero elettonico e ritiene il memristore una fonte importante per il modello di Zuse.
Remote DBA
F-O-O-D- è attiva per il servizio di Remote DBA a livello internazionale in quanto è presente su Internet in oltre 50 nazioni, offrendo servizi di Remote DBA su standard americano ma designati da Italiani.
F-O-O-D offre il servizio di Remote DBA, quindi remote database administrator, sopratutto in Italia sia nelle principali città italiane quali Milano, Roma, Torino, Bergamo e Brescia ma anche nei piccoli comuni italiani.
Remote DBA EXPERTS | Stefano Fantin
Dato  informazione  conoscenza  classificazione del pensiero elettronico con l’architettura di ZUSE : no ad algoritmi e divide et impera derivate da architetture di Von Neuman e Alan Turing.

Remote DBA Oracle
F-O-O-D ha studi tecnici come Remote DBA Oracle:
– Remote DBA Oracle 8i : webDB, outline, DBMS_REPAIR, logMiner, DROP column, LMT, TRIM function, MERGE partitions, HASH and COMPOSITE partitions
– Remote DBA Oracle 9i : fast-start time-based recovery limit, Flashback Query, Resumable Space Allocation, Trial Recovery, Data Guard, online index rebuild,  Online table redefinitions,SPFILE, External Tables, ASSM, Oracle RAC, OMF
– Remote DBA Oracle 10g : Data Pump, AWR, ASH, ADDM, SQL Tuning Advisor, Oracle scheduler, Segment Shrink, Segment Advisor, BFT, Flash Recovery Area
– Remote DBA Oracle 11g : DNFS, Online Patching, ASM Fast Mirror Resync, md_backup, md_restore, AWR baseline template, File Watcher, AMM, INCREMENTAL and PENDING statistics, Interval Partitioning
– Remote DBA Database Oracle 12c : multitenant Container DataBase, CDB, PDB, ADO, Heat MAp, PGA Size Limit, DBMS_QOPATCH, Automatic Big Table Caching, In- Memory (IM) Column Store
Consulenza database Oracle:
– performance tuning : miglioramenti delle performance del database Oracle, elasticità:futura riduzione del rischio di basse performance,
scalabilità verticale o scalabilità orizzontale per progetti big data con database Oracle
– analisi database e design database
– backup DBA
– sicurezza del database Oracle : analisi delle vulnerabilità, conformità dei report di auditing
– monitoring database Oracle
Oracle Features Implementation:
– ASM (Automatic Storage Management)
– RMAN (Recovery Manager)
– TDE (Transparent Data Encryption)
– SPM (Sql Plan Management)
– Online Redefinition
– Partitioning
– Compression
– Resource Manager
– Flashback
– Streams
– Real Application Testing
– Gateway
– Advanced Security
– Secure Backup
Remote DBA Postgresql
Il Ceo Stefano Fantin ha studiato il codice sorgente del DBMS Postgresql dalla versione 8 di Postgresql fino a Postgresql 9.5, è uscita la versione di Postgresql 9.6 .
REMOTE DBA POSTGRESQL:
Remote DBA Postgresql 8.0 : PITR, Tablespace, Windows Support, Savepoints
Remote DBA Postgresql 8.1  : Table partioning, Bitmap scans, Two-Phase commits, autovacuum
Remote DBA Postgresql 8.2 : Warm Standby, SQL 2003, Concurrent Index Builds, Gin indexes
Remote DBA Postgresql 8.3 : Hot updates, Asynchronous commit, XML, Fulltext search, Distribuited checkpoints
Remote DBA Postgresql 8.4 : Windows functions, CTEs, Database collations, Per-Column permission
Remote DBA Postgresql 9.0 : Hot Standby, Streaming Replication, Column Triggers, Conditional Triggers, hstore
Remote DBA Postgresql 9.1  : Synchronous Replication, Writable CTEs, Extension, Foreign Data Wrappers, Unlogged tables, Serialisable Snapshot Isolation, Column collations
Remote DBA Postgresql 9.2 : Cascading Replication, Index-Only scans, pg_stat_statements, Json, Ranges
Remote DBA Postgresql 9.3 : Writable Foreign Data Wrappers, Materialised Views, JSON functions and operators, LATERAL
Remote DBA Postgresql 9.4 : Logical replication, Replication slots, JSONB –> GIN (Generalized Inverted Index), scalability : Logical Decoding
Remote DBA Postgresql 9.5 : UPSERT, Row-level security, functionality for Big Data: BRIN index, algorithm called “keys abbreviated”,CUBE, ROLLUP, and GROUPING SET, TABLESAMPLE, Foreign Data Wrappers (FDW)
Remote DBA Postgresql 9.6 : Scalabilità verticale tramite query parallele, Scalabilità orizzontale tramite replica sincrona e ‘postgres_fdw’, Miglior ricerca testuale con le frasi. Parallel Query : Parallel sequential scans, parallel joins, parallel aggregates.
Transactions, VACUUM and the Visibility Map : pg_visibility extension for examining visibility maps, Frozen page data in visibility map for skipping vacuum on already-frozen data, User-defined expiration of snapshots to control table bloat. Performance and Monitoring :
Detailed wait information in pg_stat_activity, Index-only scans for partial indexes, Performance improvements for external sort operations. System Views and Administration : New system view pg_config, pg_blocking_pids, Functions pg_get_* to return NULL on invalid
objects, pg_notification_queue_usage to look at notify queue. Backups : pg_basebackup extended with replication slots, New API for hot physical backups. Other Features: Command progress reporting, Generic WAL facility, Trigonometric functions in degrees.

F-O-O-D con il il proprio servizio qualificato di Remote DBA offre amministrazione e manutenzione dei database quali Oracle e Postgresql, offre quindi : troubleshooting, ottimizzazione del database e performance scalability, ma sopratutto un attento monitoraggio del database in modo proattivo.
F-O-O-D ha i propri collaborativi attivi per il remote DBA sia in orario diurno che in orario notturno, quindi :
monitoraggio remoto per database gestiti 24/7
monitoraggio remoto per database gestiti in orario diurno (remote DBA diurno)
monitoraggio remoto per database gestiti in orario notturno (remote DBA notturno)
F-O-O-D offre sessioni di training in aula e training on-the-job, ma sopratutto offre consulenza sia On-Site che consulenza da Remoto.
F-O-O-D è molto attiva nel cloud e ha la propria soluzione di cloud DBA in quanto le aziende delocalizzano i propri dati tramite appunto il cloud ma serve integrazione dei dati tramite personale qualificato come quello di F-O-O-D.
Siccome c’è la globalizzazione il servizio di remote DBA è possibile richiederlo pur avendo attività nelle maggiori città americane quindi Remote DBA New York city, Los Angeles, Chicago, Houston, Filadelfia, Phoenix, San Antonio, San Diego, Dallas, San Jose, Indianapolis, San Francisco, Detroit, ElPaso, Seattle, Boston, Washington, Sacramento, Atlanta, Raleigh. Mi piacerebbe conoscere Remote DBA di New York city, Los Angeles, Chicago, Houston, Filadelfia, Phoenix, San Antonio, San Diego, Dallas, San Jose, Indianapolis, San Francisco, Detroit, ElPaso, Seattle, Boston, Washington, Sacramento, Atlanta, Raleigh e confrontare le mie idee sul lavoro di Remote DBA di queste città americane dove ricordo che gli americani hanno ottime aziende e un ottimo know how quindi faccio i complimenti ai lavoratori delle precedenti città perchè è difficile competere in America e bisogna essere molto bravi.
Mi piacerebbe prendere l’aereo e partecipare a meetup nelle città americane per Remote DBA. Mi piacerebbe lavorare come Remote DBA delle principali città del Canada sono molto bravi infatti hanno oltre un adeguato stipendio anche la possibilità di essere un tuttuno con i clienti del Canada cioè Remote DBA Toronto, Montréal, Calgary, Ottawa, Edomonton, Missisauga, Winnipeg, Vancouver.
Attualmente ci sono diversi tipi di database dal classico modello E/R cioè entità relazioni a quello NoSQL con partizionamento orizzontale al posto che verticale ma penso che remote DBA London, Glasgow, Sheffield, Liverpool, Manchester, Bristol, Leeds, Birmingham.
Remote DBA tra aziende in modo coopetitivo

Parte 1 di 2
Pre-informazioni
FONTE : Claudio VENTURINI
TITOLO : Progettazione e Sviluppo di Data Warehouse in Ambiente Coopetitivo
Relatore: Dott. Andrea MAURINO
Correlatore: Dott. Angelo SIRONI

Viene reso disponibile a titolo informativo dei pezzi della tesi di Laurea di Claudio Venturini date a Stefano Fantin da Andrea Maurino, docente universitario dell’Università degli Studi di Milano Bicocca, come risorsa di lettura e documentazione.
Coopetizione: problemi per l’IT
In uno scenario coopetitivo si hanno due o più organizzazioni che operano in un regime competitivo all’interno di un certo mercato, e che necessitano però di cooperare in alcuni aspetti del business. Le motivazioni possono essere svariate e sono state ampiamente dibattute dalla ricerca in ambito economico, di gestione dell’organizzazione e di knowledge management.
In generale, un rapporto coopetitivo tra diversi attori pùo essere instaurato per volontà degli stessi partecipanti, oppure imposto da enti terzi. Nel primo caso gli attori individuano nella cooperazione la possibilità di ottenere dei benefici comuni, che nessuno di essi potrebbe ricevere in uno scenario puramente competitivo. Un esempio è lo scambio di informazioni ai fini di migliorare la qualità dei prodotti o dei servizi forniti ai clienti. Nel secondo caso invece lo scenario prevede un terzo attore, che ha il potere di forzare o stimolare uno scambio di informazioni tra i partecipanti. Un caso tipico è quello in cui alcune organizzazioni sono obbligate per legge a partecipare ad un meccanismo di cooperazione.
Dal punto di vista dell’IT la coopetizione si caratterizza per il fatto che gli attori coinvolti hanno la necessità di scambiare informazioni, senza tuttavia integrare completamente i loro sistemi informativi. Questo scambio di informazioni deve essere ben controllato, in quanto la coopetizione pùo essere redditizia solo se l’aspetto cooperativo del rapporto fornisce benefici a tutti i partecipanti, e non genera quindi vantaggi competitivi al singolo attore. I problemi di maggiore rilevanza dal punto di vista dello sviluppo di un sistema software che effettui tale integrazione in ambiente coopetitivo, sono quindi i seguenti:
Individuazione delle informazioni da condividere capire quali informazioni è necessario scambiare e quindi integrare, in modo tale che esse risultino utili per la globalità delle organizzazioni coinvolte.
Tecniche di integrazione scegliere le tecniche adeguate per svolgere l’integrazione, sia in termini di processo da seguire, sia in termini di architetture e sistemi impiegabili. In questo ambito rientrano anche le problematiche relative alla risoluzione di possibili incongruenze semantiche tra le informazioni provenienti da organizzazioni differenti.
Scalabilità il numero di organizzazioni coinvolte nella coopetizione pùo essere nell’ordine delle decine, e variare nel tempo: è quindi necessario che l’architettura sia sufficientemente scalabile affinchè i relativi dati possano essere integrati nel sistema con relativa semplicità.
Flessibilità l’integrazione di diversi sistemi informativi aumenta la probabilità che almeno uno di essi subisca modifiche nel breve periodo. Tale probabilità è tanto più alta quanti più sono i sistemi informativi integrati, e rappresenta un problema soprattutto quando la quantità di informazioni condivise è alta. Il sistema deve essere quindi in grado di reagire velocemente ai cambiamenti nei vari sistemi informativi integrati.
Sicurezza garantire la sicurezza delle informazioni pubblicate, attraverso adeguati meccanismi di controllo di accesso
Privacy garantire la privacy delle informazioni pubblicate, al fine di evitare che uno degli attori possa venire a conoscenza di informazioni sensibili per le altre organizzazioni, ad esempio attraverso attacchi di tipo inferenziale. In particolare è necessario trovare il giusto bilanciamento tra l’utilità dei dati condivisi, nell’ottica di svolgere indagini analitiche, e il livello di privacy richiesto.
Proprietà dei dati nel momento in cui i dati vengono pubblicati, un’organizzazione rischia di perderne il controllo. Questo problema è fortemente influenzato dalla presenza di un terzo attore, e dal grado di fiducia che le organizzazioni coinvolte
vi ripongono. In certi casi infatti questo ente terzo pùo farsi carico di gestire i dati condivisi.
Per risolvere questi problemi l’IT deve in primo luogo identificare le architetture, le piattaforme e le tecnologie necessarie all’integrazione e allo scambio delle informazioni. In secondo luogo deve definire un adeguato modello di sviluppo, in particolar modo per quanto riguarda la fase di raccolta dei requisiti. Nel seguito si analizzerà nel dettaglio come è possibile soddisfare i requisiti indicati nel caso specifico dello sviluppo di un sistema di data warehousing.
Solitamente un DW è utilizzato per analisi quantitative degli eventi di interesse per il business di un’organizzazione, quali ad esempio le vendite, gli acquisti o i livelli di magazzino. Di conseguenza tratta informazioni di tipo numerico, come le quantità di prodotto, o i prezzi. Per fare questo il DW organizza le informazioni in modo tale che possano essere utilizzate in modo efficiente per svolgere analisi ai fini del supporto alle decisioni. I dati vengono estratti da varie sorgenti interne all’organizzazione, e integrati tramite una delle tecniche di integrazione, al fine di ottenerne una visione unificata. Durante questa fase possono subire anche un processo di pulizia, al termine della quale vengono integrati all’interno del DW.
Il DW viene utilizzato dagli utenti a diversi livelli. Gli organi dirigenti lo utilizzano per analisi complesse dei vari aspetti del business , al fine di supportare le proprie decisioni.
Altri utenti lo possono utilizzare semplicemente per la generazione di report periodici, che talvolta possono anche essere resi pubblici all’esterno dell’organizzazione.
In un DW sviluppato in ambiente coopetitivo le singole sorgenti di dati sono di proprietà di diverse organizzazioni, e vengono integrate al fine di osservare fenomeni che coinvolgono non i singoli ma tutti i partecipanti. .
Coopetitive Data Warehouse (CDW) :
il sistema non viene sfruttato unicamente all’interno dell’organizzazione. Al contrario il sistema è aperto, e può fornire informazioni a diverse tipologie di utenti:
le stesse organizzazioni coinvolte nella coopetizione, che possono così ottenere una visione più ampia del mercato in cui operano
la pubblica amministrazione, che pùo richiedere dati al fine di svolgere attività di controllo
cittadini e consumatori al fine di renderere più trasparente la filiera produttiva.

Coopetizione, Competizione, Cooperazione
Negli ultimi anni altri autori hanno enfatizzato l’importanza dei meccanismi coopetitivi per la creazione di valore all’interno del business.
Tramite la teoria dei giochi è possibile modellare matematicamente i comportamenti degli attori del business al fine di studiarne le decisioni strategiche. In un gioco ogni concorrente applica delle strategie per la decisione della mossa da intraprendere ad ogni turno. La redditività della mossa è definita da una funzione di ricompensa, che associa un valore numerico ad ogni mossa effettuata dal partecipante. Usualmente la ricompensa rappresenta il guadagno o la perdita di denaro, e di conseguenza pùo trattarsi di un
valore negativo. L’obiettivo dei giocatori è massimizzare la somma delle ricompense ottenute durante i vari turni di gioco.
Senza entrare nel dettaglio della rappresentazione matematica, i tre scenari di competizione, cooperazione e coopetizione si possono cos`ı caratterizzare:
Competizione L’organizzazione è un’entità isolata rispetto agli altri attori del mercato, e l’unico obiettivo nel gioco è la ricerca di una ricompensa maggiore di quella ottenuta dagli avversari, seguendo un comportamento opportunistico. In questo scenario di gioco la vincita corrisposta ad uno dei giocatori corrisponde ad una indentica perdita per l’avversario, e di conseguenza si pùo parlare di gioco a somma zero. E’ evidente che in questo tipo di gioco le funzioni di ricompensa dei vari partecipanti sono in netto contrasto tra loro: non esiste quindi una vera e propria creazione di valore, ma si ha piuttosto un passaggio di valore tra i giocatori.
Cooperazione Le organizzazioni in gioco sono mosse da un interessi convergenti, e di conseguenza sono caratterizzate da funzioni di rincompensa concordi tra loro. In generale le interazioni sono basate su un rapporto di fiducia reciproca, in modo del tutto opposto a quanto avviene in uno scenario competitivo. Questo contesto
è rappresentabile con un gioco a somma positiva, in cui la creazione del valore è possibile ed è tanto più consistente quanto più i giocatori adottano una strategia che mira a perseguire interessi comuni: ciò costituisce un forte disincentivo verso l’adozione di comportamenti opportunistici.
Coopetizione Il contesto coopetitivo è uno scenario ibrido in cui i partecipanti perseguono interessi parzialmente convergenti. Ciò significa che, al contrario di quanto avviene nella cooperazione, l’interesse primario di una organizzazione non
è perfettamente allineato con l’interesse degli altri partecipanti al gioco. Non c’è quindi un rapporto di totale fiducia tra i giocatori: al contrario è probabile che la funzione di ricompensa di alcuni dei giocatori favorisca comportamenti opportunistici. Questi fattori fanno si che il gioco sia caratterizzato da una struttura a somma positiva ma variabile, che pùo portare a benefici comuni tra tutti i partecipanti, ma non necessariamente equi. In questo scenario viene a crearsi una situazione di incertezza dovuta al fatto che i giocatori non hanno modo di stimare a priori i vantaggi che possono ricevere dalla cooperazione. Tale incertezza pùo portare verso comportamenti opportunistici, riducendo di conseguenza la partecipazione alla cooperazione.
In ogni caso le analisi possibili devono essere ristrette alla globalità delle organizzazioni coinvolte, e non devono quindi coinvolgere i dati di una sola di esse.

Coopetizione dal punto di vista dell’IT
Vantaggio reciproco Cooperazione tra due o più partners al fine di ottenere vantaggi reciproci. Un caso reale è il servizio di roaming internazionale fornito dalle com- pagnie di telefonia mobile, che competono nell’attrarre clienti, ma al contempo cooperano per garantire l’accesso alla rete telefonica anche all’estero, dividendo i ricavi generati dal traffico telefonico internazionale. Gli operatori devono imple- mentare dei meccanismi di scambio dei Call Detail Record, e unificare i sistemi di addebito. Un secondo esempio sono i servizi di pagamento automatico del pedaggio autostradale, come ad esempio Telepass. Nonostante la rete autostradale italiana sia di proprietà di diverse società in competizione, esse cooperano al fine di fornire il servizio Telepass sull’intera rete. Anche in questo caso è necessario un flusso continuo di dati tra le varie organizzazioni per gestire i gli addebiti sulle carte di credito degli automobilisti.

Stakeholder con il potere di forzare la coopetizione In alcuni scenari di busi- ness si ha la presenza di uno stakeholder con potere a sufficienza per instaurare un rapporto di cooperazione tra altri stakeholder in competizione tra loro. Un scenario di questo tipo si è creato in Italia in seguito all’istituzione della Borsa Continua Nazionale del Lavoro (BCNL), un portale web con l’obiettivo di favorire l’incontro tra domanda e offerta di lavoro. In questo caso lo Stato ha imposto per legge alle varie agenzie di job placement pubbliche e private di cooperare mettendo a disposizione nel portale alcune informazioni dei profili dei richiedenti lavoro che esse gestiscono. Un secondo esempio è quello del parallel sourcing, modello tipico di approvvigionamento di materiale nell’industria automobilistica giapponese [?]. In questo caso un’organizzazione si rifornisce di materiale da più fornitori differen- ti, mantenendo il rapporto con ciascuno per un lungo periodo. Questo garantisce una fornitura costante di materiale e contribuisce a creare una forte competizione tra i fornitori. Tuttavia essi sono anche obbligati a scambiare conoscenza tra loro relativamente ai problemi di produzione e alle relative soluzioni.

Sistemi Informativi Statistici La Pubblica Amministrazione, o grandi aziende, pos- sono decidere di integrare parzialmente i propri sistemi informativi al fine di disporre di informazioni relative alla popolazione, con finalità di supporto alle decisioni e analisi statistiche.

L’integrazione dei sistemi informativi dei partecipanti si traduce nella costruzione di un sistema informativo federato, che consenta lo scambio di informazioni tra le or- ganizzazioni coinvolte. Tra i maggiori problemi nella costruzione di sistemi di questo

Stato dell’arte
In un contesto di coopetizione, ci sono sicuramente le questioni organizzative. Una prima analisi in questo senso è stata condotta con l’obiettivo di valutare quali siano i fattori che causano il successo o il fallimento del progetto, delineare i profili degli attori coinvolti nel processo di integrazione, classificare i possibili comportamenti che questi possono adottare, e infine individuare le fasi essenziali nella costruzione del sistema.
In un progetto di costruzione di un sistema informativo federato, su base coopetitiva, si possono individuare i seguenti attori:

Coopetition board committee Un comitato con il ruolo di favorire la coopetizione facendo da tramite tra le organizzazioni coinvolte e coordinando il progetto

Decision maker L’insieme dei dirigenti delle varie organizzazioni coinvolte, che hanno potere di decidere che grado di importanza assegnare al progetto e di conseguenza quante risorse destinare

Coopetition Process Key Role (CPKR) Un gruppo di persone per ognuna delle or- ganizzazioni coinvolte incaricate di interfacciare l’organizzazione con il coopetition board committee, al fine di realizzare la coopetizione. Solitamente sono persone di grado inferiore ai decision maker, ma con una grande influenza nel processo coopetitivo.

Gli autori evidenziano che in alcuni casi per conseguire gli obiettivi del progetto potrebbe essere necessario intervenire sui processi di business dell’organizzazione, in particolar modo quando è necessario affrontare problemi di qualità dei dati. La loro reingegnerizzazione è un’operazione costosa, ed è quindi necessario che i decision maker comprendano appieno l’entità del plus valore apportato dall’iniziativa all’organizzazione. In caso contrario non saranno disposti a investire sufficienti risorse, in termini di cap- itale sia umano che finanziario. Ciò è particolarmente importante nel caso in cui la coopetizione sia forzata da enti terzi.
Il ruolo dei CPKR è fondamentale per il successo del progetto, in quanto essi si occupano di rendere possibile l’integrazione predisponendo le necessarie interfacce tra l’organizzazione e il mondo esterno. Un caso tipico di CPKR sono i tecnici del reparto IT, che devono preparare le piattaforme hardware e software necessarie a permettere la comunicazione dell’organizzazione con la federazione. In alcuni casi i CPKR non os- serveranno un beneficio diretto dall’introduzione del nuovo sistema, e potrebbero quindi essere riluttanti nel partecipare alla cooperazione. In aggiunta, essi si trovano solita- mente in una situazione di subordinazione rispetto ai decision maker. Se questi ultimi non intendono investire adeguate risorse nel progetto, è molto probabile che lascino a disposizione dei CPKR, per l’attuazione del progetto, solo una piccola parte del totale delle ore lavorative.
Remote DBA tra aziende in modo coopetitivo
Parte 2 di 2

Fondamenti di
Informatica per l’organizzazione
Prima parte del corso: lezioni 1-6
Dispense redatte da:
Antonio Ceparano,Vincenzo Ferme,Monica Menoncin,Alessandro Re
Verificate dal professor Giorgio De Michelis per assicurare l’assenza di strafalcioni.
DISPENSE AMPLIFICATE DAL DOTTOR STEFANO FANTIN .

Storia dell’informatica nelle organizzazioni
Le aziende iniziano a far uso di automatismi e macchinari già prima dell’arrivo dei computer, ad esempio agli inizi del 1900 si utilizzavano macchine per organizzare l’anagrafe mediante schede ordinate e meccanismi di selezione, o per sintetizzare informazioni e conti, come ad esempio le Tabulating o Accounting Machines.
L’International Business Machines, IBM, nasce proprio in questo settore: inizialmente vendeva sistemi per le fatturazioni, che venivano fatte migliaia di volte al mese; vi erano quindi sistemi di produzione di fatture, ma non di gestione: non si facevano statistiche e non c’era un luogo dove memorizzare grandi volumi di dati.
A metà degli anni 30 e degli anni 40, tre gruppi di lavoro principali lavorano sui calcolatori elettronici programmabili: Alan Turing in Inghilterra, con l’obiettivo di realizzare un sistema di crittazione per scopi bellici, Konrad Zuse in Germania (da alcuni reputato il vero inventore del
calcolatore elettronico) e John von Neumann con il team dell’ENIAC in America. Gli americani in particolare hanno avuto il merito, dopo la guerra, di vedere un ruolo dei calcolatori all’interno delle organizzazioni e di introdurli quindi in questi ambienti.
Il concetto di calcolatore programmabile è però antecedente a questo periodo: già nella metà del 1800 Charles Babbage aveva ideato una macchina meccanica per eseguire i calcoli, il “motore differenziale”. Questa macchina era però affetta da problemi meccanici e non venne mai realizzata da Babbage (una produzione secondo i progetti originali venne completata nel 1991, Science Museum in London). Babbage progettò in seguito il “motore analitico”, una macchina ancora più complessa, che utilizzava schede perforate, e che era in grado di essere programmata a piacimento. Disponeva di unità aritmetica, controllo di flusso e memoria: era il primo progetto di un calcolatore Turing-completo.
Alla fine degli anni 50 si intuì che il calcolatore poteva essere usato nell’impresa e la pubblica amministrazione, la cui organizzazione soffriva a causa delle enormi quantità di dati. A causa dei costi elevati, solo le grandi organizzazioni e centri di ricerca (come quello spaziale) e l’esercito potevano permettersi un calcolatore.
Negli anni 60 l’informatica entra finalmente nelle aziende in maniera diffusa anche grazie al ruolo di IBM, che sviluppa il primo mainframe, il System/360 (1964), progettato per avere una diffusione molto ampia nelle organizzazioni medio/grandi di quel periodo.
In quell’epoca anche in Italia vi era una produzione di calcolatori elettronici per le organizzazioni, grazie ad Olivetti. Quest’azienda era composta da due gruppi di lavoro: a Pisa si effettuava la progettazione concettuale e fisica della macchina, ad Ivrea vi era il polo commerciale di vendita ed interazione col cliente. Lo sviluppo dei calcolatori, in quest’epoca, era una sfida e un’avventura, poiché’ non esistevano ancora processi di sviluppo che garantivano la realizzazione di macchine ad elevata usabilità.
Col tempo queste tecnologie si diffusero e il calcolatore divenne un mezzo con cui gestire tutte le informazioni codificabili.
Oggi, rispetto a 40 anni fa, l’informatica è cambiata molto. Ci sono stati molti miglioramenti rispetto al tempo delle schede perforate, ma purtroppo ci sono anche stati inevitabili problemi derivanti dal cambiamento che l’innovazione richiedeva. Attualmente ogni volta che introduciamo un cambiamento bisogna fare i conti con le tecnologie esistenti (legacy), spesso mal documentate o non documentate affatto, prevedere delle integrazioni e tempi di migrazione, scontrarsi con la resistenza degli utenti.
Nell’organizzazione aziendale vi è una spinta al continuo uso dei calcolatori per varie ragioni. Le più impellenti sono le enormi quantità di dati da gestire, spesso informazioni non strutturate, e la necessità di eseguire calcoli ripetitivi o complessi.

Visione a 3 facce
All’interno dell’organizzazione esistono tre ambiti d’interesse per i sistemi informativi:
l’ambito operativo, quello relativo alla registrazione dei fatti dell’azienda, necessario per il suo governo;
l’ambito decisionale, relativo all’elaborazione delle informazioni per sviluppare la Business Intelligence;
l’ambito collaborativo, relativo alla gestione dei flussi comunicativi e di conoscenza nell’azienda e con interlocutori esterni, necessario per poter concepire il nuovo.
Al funzionamento dei sistemi informativi corrisponde buona organizzazione delle attività e quindi vantaggio per gli stakeholder (siano essi i dipendenti, i soci, i fornitori, lo stato).
Questa suddivisione dei sistemi informativi, detta a “tre facce”, venne proposta in due articoli11 alla fine degli anni ,90 da un gruppo di esperti provenienti da università e background diversi, sosteneva la necessità di tenere conto dei tre ambiti per la realizzazione di un sistema efficace.
Le tre facce del sistema non vanno intese come componenti costitutive del sistema, ma come tre aspetti dell’azienda da considerare nello sviluppo di nuovi sistemi.
Sebbene i primi sistemi informativi nascessero esclusivamente per il supporto delle operazioni, durante la loro evoluzione non fu eseguita una propria separazione delle 3 facce del sistema, ma esse si sono amalgamate nei vari componenti che costituiscono il sistema nella sua interezza; i sistemi venivano creati per utilizzi specifici ed ognuno di essi aveva, al suo interno, aspetti propri ad ognuna delle 3 facce. Ad esempio, l’evoluzione dei sistemi a supporto delle operazioni proseguiva durante la nascita e lo sviluppo dei sistemi per la Business Intelligence.
Questo contribuiva alla realizzazione di sistemi composti da delle componenti separate, ma collaboranti. Ognuna di queste componenti ha una evoluzione separata dalle altre e la crescita del sistema consiste nelle scelte relative all’ottimizzazione dell’integrazione dei sistemi esistenti. Tali scelte d’integrazione però introducono rigidità e condizionano le scelte future: l’innovazione di un software continua per anni (10 o 15 anni) e mette continuamente in discussione i sistemi esistenti. Le scelte fatte nel passato riguardano le relazioni che intercorrono tra le componenti e che hanno condotto alla situazione attuale, non solo a livello di sistema, ma anche a livello di pregiudizi: convinzioni e consuetudini che si sono radicate nell’azienda, specialmente in situazioni di alta stabilità.
Le tre suddivisioni che abbiamo visto sono da considerarsi tre facce di uno stesso problema e non tre componenti distinti.
Supporto alle operazioni
L’informatica entrò nelle imprese dapprima in ambiti di interesse vitale e quantitativo: le informazioni essenziali dell’azienda sono quelle riconducibili ai valori economici e ai prodotti dell’azienda. Pertanto i primi tre ambiti ad essere informatizzati sono stati
gestione del magazzino e pianificazione della produzione;
contabilità, amministrazione;
amministrazione del personale.
La prima informatica nell’organizzazione è quindi legata alla produzione di una identificazione univoca dei fatti dell’azienda riconducibili a dei valori economici. Questo aspetto è ormai divenuto fondamentale perché’ rende trasparente l’attività dell’azienda. Oggigiorno è fondamentale che questa trasparenza sia presente secondo diverse legislature, pertanto all’interno di una organizzazione di dimensioni considerevoli esistono necessità che senza l’ausilio dell’informatica non si possono più soddisfare.
I sistemi che si occupano della gestione di questi dati fondamentali all’attività dell’azienda (magazzino, personale, fatturazione), e cioè che aiutano l’azienda nella sua attività propria, sono chiamati sistemi di supporto alle operazioni.
Prediamo ad esempio un’azienda fittizia che produce giocattoli: ogni oggetto prodotto è descritto dalla sua distinta base, cioè dall’elenco di tutti i suoi componenti, e ogni variazione nella distinta base dà luogo a un oggetto diverso: per esempio tutte le Barbie hanno 2 braccia e 2 gambe, ma alcune hanno capelli rossi, alcune hanno un certo vestito, eccetera. Possiamo identificare un prodotto e tutte le sue variazioni mediante l’uso di codici univoci.
Ogni prodotto ha delle giacenze di magazzino: ci interessa sapere quante Barbie abbiamo e quante ne abbiamo prodotte.
I prodotti devono poi essere venduti: quindi un’azienda deve amministrare le fatture relative alle vendite. A questo punto possiamo correlare denaro e prodotti e vedere quanto denaro entra per ogni prodotto uscito.
Tramite il sistema informativo possiamo quindi avere informazioni sui prodotti e sul denaro.
Parallelamente ai prodotti finali, per poter produrre qualcosa sono necessarie delle materie in ingresso, quindi dovremo registrare i materiali in ingresso e i relativi costi e giacenze.
Infine è necessario amministrare il personale. Le informazioni principali sono:
profili (personali, fiscali);
posizione nell’organizzazione;
indicazioni relative al sistema dei premi di produzione.
Supporto alle decisioni
La conduzione di una organizzazione però va oltre alla gestione dei fatti dell’azienda: per poter crescere, migliorare e sviluppare l’azienda è necessario effettuare delle scelte in base alle situazioni e alle problematiche (ad esempio l’aumento o la diminuzione della domanda di un prodotto) che si pongono sul cammino dell’azienda, ovvero fondamentalmente prendere decisioni basandoci sui fatti e sui valori economici.
Non solo: l’azienda può anche deviare percorso senza accorgersene se, ad esempio, dei canali di vendita sono troppo o troppo poco proficui (o addirittura rappresentano una perdita), l’azienda potrebbe inconsapevolmente dirigersi in direzioni non previste.
E’ quindi necessario porsi domande relative ai fattori che generano il cambiamento, o ai fattori che influenzeranno maggiormente le scelte operative dell’azienda. Per farlo è possibile costruire dei modelli con l’aiuto dei calcolatori per interpretare al meglio i dati noti.
Sono quindi necessari dei sistemi che permettano di avere accesso a tutta la conoscenza utile, ovvero quella relativa all’area di competenza di chi la richiede e utile a svolgere le attività di competenza, per poter dare una risposta, ma lasciando un buon grado di libertà di poter fornire una risposta responsabilmente.
Tali sistemi, che aiutano nella gestione dell’organizzazione, sono detti sistemi per il business management.
Questi sistemi permettono di attuare dei processi interpretativi che aiutino nella pianificazione e nelle scelte per il futuro sulla base di ciò che le dinamiche di produzione-vendita generano.
L’interpretazione di tali dinamiche viene effettuato dalla business intelligence (BI), cioè da quella disciplina, o insieme di tecniche, che va alla ricerca dei dati di cui l’azienda già dispone, ma di cui è (parzialmente) inconsapevole. I sistemi di monitoraggio e dei sistemi di decisione fanno parte della BI.
Col passare del tempo anche i sistemi di BI si sono evoluti: in passato tali sistemi erano orientati verso gli executive information system, ovvero ai sistemi per la raccolta dei dati, ma le esigenze aziendali sono cambiate negli anni e le aziende si pongono domande diverse rispetto al passato. Infatti non solo lavorano per migliorare costantemente l’azienda, l’ambiente di lavoro e il prodotto, ma la condizione del mercato e del settore specifico in cui produce l’azienda influenza il suo modo d’agire a breve e a lungo termine.
L’azienda necessita dunque di:
organizzare se stessa e i suoi impianti in modo da garantire un buon grado di flessibilità al cambiamento;
essere composta da personale capace e flessibile;
gestione di molte informazioni e relazioni con altre entità (persone, altre aziende, …).
La Business Intelligence deve quindi essere adeguata a supportare e facilitare le scelte dell’azienda, seguendone la strategia: i sistemi E.R.P, nati negli anni 60/70, erano rivolti ad aziende molto stabili, ma la condizione attuale è diversa. Non basta più sintetizzare i dati al servizio del manager, ma bisogna riuscire a generare informazioni aggiuntive, effettuare analisi complesse e molte volte costose. Servono quindi sistemi informativi specifici per queste esigenze.
Un esempio di come i sistemi si sono evoluti dalla gestione delle operazioni al supporto delle decisioni, è quello del magazzino.
Una volta la gestione del magazzino consisteva nella raccolta dei dati essenziali per la sua gestione: catalogazione delle giacenze, delle materie prime e dei prodotti finali.
Oggi il sistema è più ampio e gestisce, oltre ai dati, la programmazione e la pianificazione della produzione.
Tale sistema passa per diverse fasi evolutive:
algoritmi di base per l’impianto as a whole: in base alle entrate di materie prime e i
vincoli di produzione si determinano gli standard e ritmi che bisogna tenere (inventory theory)
modellazione più precisa dell’impianto con chiari vincoli temporali: catena di operazioni che devono necessariamente avvenire e loro controllo (logistics+automation)
in impianti molto grandi, la gestione non può essere prettamente automatizzata, e quindi è necessario aprirsi alla Business Intelligence (decision systems)
Anche l’amministrazione, come il magazzino, ha subito un cambiamento nel tempo: una volta i sistemi eseguivano il minimo indispensabile, davano quindi un supporto nella stesura delle fatture e del bilancio, ma oggi l’evoluzione spinge verso la programmazione e la progettazione, il controllo (monitoring) delle operazioni e dei progetti.

Unione di Operazioni e Decisioni nei sistemi ERP
L’integrazione tra i sistemi di supporto alle operazioni e i sistemi per la business intelligence continua ad aumentare fino alla comparsa dei sistemi ERP, Enterprise Resource Planning, che assumono il ruolo di sistema informativo unico per la vita dell’azienda. Questi sistemi, che raggiunsero la massima diffusione negli anni ,90, sono sostanzialmente utilizzati in tutte le imprese medio/grandi e si diffondono sempre più nelle aziende medio/piccole.
Il prodotto leader di questo mercato è SAP.
L’adozione di un ERP (non necessariamente SAP) è un nuovo inizio per l’azienda: il consolidamento dell’informazione e la sua gestione centralizzata, ma modularizzata, permette logiche di ragionamento complesse (studio margini di rendita, scenari di solvibilità/insolvibilità…).
Quindi tradurre la struttura di un’impresa in un modello per un ERP è un buon metodo per capire completamente come sono strutturate e come funzionano le aziende. Con gli ERP però è difficile riuscire a catturare l’essenza delle aziende come “generatrici di conoscenza”, e diviene impossibile rappresentarle in tutti i loro dettagli.
Infatti il problema della rappresentazione dell’azienda nasce dal fatto che i sistemi ERP attualmente presenti si basano su un unico modello di azienda funzionale gerarchica (modello ARIS), mentre nel mondo moderno è comune individuare organizzazioni con struttura matriciale, in cui le persone non hanno una singola dipendenza (dal superiore), ma doppia: una per l’ambito funzionale (conoscenze che le singole persone hanno, ad esempio un designer ha un “capo designer” di riferimento) e una per l’impiego (il progetto in cui stanno lavorando, ad esempio il designer ha un “capo progetto” per il progetto in cui sta attualmente lavorando).
Ci sono quindi più responsabili per un singolo dipendente, con potenziali situazioni conflittuali.
Inoltre, gli ERP presentano delle limitazioni legate alla variabilità dell’azienda: un’azienda non può predire come evolverà e come cambierà. Il sistema informatico deve necessariamente adattarsi ai cambiamenti dell’azienda, ma a volte l’ERP è troppo strutturato per poter star dietro all’evoluzione dell’azienda e questo difetto introduce a sua volta una rigidità che si pone come ostacolo all’evoluzione aziendale.
In ultima analisi, nel momento in cui si decide per un ERP, si deve capire:
integrazione dati: gli ERP non possono ovviamente prescindere dai dati d’azienda, che sono tanti e sono disorganizzati, vi è la necessità di utilizzare i datawarehouse
quali problemi sorgono gestendo l’azienda interamente con l’ERP
quindi, quali sono le caratteristiche distintive dell’azienda che adotta un certo ERP e quali di esse hanno a che fare con questi problemi (es. caratteristiche proprie delle aziende di un certo paese, es. quelle italiane si distinguono per tradizione e gestione familiare, dimensione medio-piccola, resistenza al cambiamento)

Gestione della conoscenza
Quando un’azienda decide di entrare in una determinata fascia di mercato, non può iniziare dal nulla: esistono dei criteri secondo i quali è necessario agire ed esistono parametri che vanno attentamente analizzati. Lo studio dei competitors e del mercato è necessario non solo per districare le possibili strategie da adottare, ma anche per poter confrontare i risultati delle proprie strategie con quelle esistenti.
Le decisioni prese all’interno di un’azienda sono quindi il risultato di un processo, che però non è né formale né ha un iter ben definito. Benché qualcuno abbia provato a formalizzare questi processi e il modo in cui le persone ragionano, il risultato netto è che il comportamento delle persone è raramente quello che ci si aspetta.
In linea generale, il processo di studio del mercato ha due componenti fondamentali:
componente dialogica, ovvero comunicazione tra le persone. Quando esse non hannoabbastanza informazioni, possono chiederle a qualcuno in modo implicito od esplicito.
Nelle aziende il “decisore finale” è chiamato Chief Executive Officer (CEO)  che è eventualmente affiancato da un consiglio, a cui fa capo. Il CEO deve  comunicare costantemente con tutte le persone coinvolte nel progetto,  scambiando informazioni per trovare il modo di portare profitto all’azienda.
componente documentale, ovvero scambio e/o condivisione di documenti. Non solo c’è una comunicazione tra le persone, ma c’è anche uno scambio di documenti necessario per avere una base comune su cui discutere. Si raccolgono informazioni e si fanno studi sul mercato in cui si intende entrare, e nel modo in cui entrare sul mercato.
La gestione della conoscenza e delle informazioni è una componente fondamentale per tutti i settori in cui si rende necessario prendere un certo tipo di decisioni, non legate strettamente ai dati certi dell’azienda, ma spesso legate a dati incerti.
Due settori che hanno conosciuto un’evoluzione in questo senso negli ultimi anni, sono quello di marketing e quello commerciale, specialmente quello di marketing che non solo si basa su dati incerti – al pari del commerciale – ma deve anche interpretare i comportamenti delle persone.
I sistemi informativi per il marketing e il commerciale non nascono nell’area dei sistemi di supporto alle operazioni, ma nell’area di elaborazione delle informazioni e si evolvono verso la gestione dei flussi informativi, perché devono prendere in considerazione molte più fonti di informazione, anche esterne.
L’informatica deve interfacciarsi ad un sistema complicato di comunicazione e di scambio di informazioni. E deve affrontare un problema complesso per integrarle e dare risposte alle esigenze delle aziende.
Il sistema di comunicazione ormai segue un flusso che esce dall’azienda e apre una serie di problemi nuovissimi. Nel settore degli elettrodomestici, ad esempio, le aziende non conoscono i loro clienti finali, perché la realtà attuale è che gli elettrodomestici vengono venduti in negozi multi-marca, dove c’è un intermediario, il gestore del negozio, che stabilisce un rapporto di fiducia col cliente. Anche i tecnici riparatori sono spesso multi-marca, e l’azienda si trova ostacolata nella comunicazione col cliente perché non vi interagisce direttamente. I produttori, quindi devono aprire canali di conversazione con i loro clienti, ma questo compito non è facile da assolvere, poiché spesso l’unico riscontro che hanno le aziende da parte dei clienti avviene solo quando i clienti non sono soddisfatti.
Per una azienda, il flusso di conversazione col cliente vale tanto quanto la vendita di un prodotto, perché implica la sua fidelizzazione. Fino a qualche anno fa, il canale col cliente era organizzato solo mediante call center. Recentemente, invece, l’ICT si sta diffondendo sempre più e non solo occupa una posizione nel backoffice, ma assume un nuovo ruolo nella comunicazione col cliente.
L’interazione con il cliente e la gestione del flusso di conversazione ha portato i vari dipartimenti dell’azienda ad adottare nel tempo un proprio sistema di comunicazione. Tra tali dipartimenti però esiste la necessità di interazione, e questo pone un problema a livello di integrazione degli strumenti che i vari dipartimenti utilizzano. Le politiche di conversazione col cliente, quindi, rompono i confini aziendali e pongono il problema di dove mettere gli strumenti per poter fare questa conversazione; ogni azienda presenta un profilo di integrazione molto peculiare, che dipende dalla storia dell’azienda stessa.
La conversazione che coinvolge la creazione e lo sviluppo di nuovi prodotti ha quindi due sorgenti principali:
una sorgente esterna, data dal comportamento della concorrenza e dei loro prodotti e dal comportamento dei clienti;
una sorgente interna, data dal confronto tra le previsioni di vendita e le vendite effettive.
L’interazione col cliente avviene anche mediante i “sistemi operativi” (ovvero i sistemi di supporto alle operazioni), che man mano si stanno spostando da un ruolo strettamente legato all’azienda e al suo core business, verso un ruolo più vicino all’utente integrando sempre più servizi e offerte per il consumatore.
La tecnologia ci permette di allargare lo span dei sistemi di supporto alle operazioni, cambiando radicalmente l’interazione che abbiamo col cliente.
Ad esempio, le società di telecomunicazioni odierne chiamano “sistemi operativi” i sistemi che gestiscono le reti telefoniche e l’atto di comporre il numero telefonico è una interazione con quel sistema operativo, anche se dall’utente questa comunicazione non è percepita come tale.
Dall’altra parte, i sistemi operativi utilizzati in aziende di e-commerce come Amazon, sono molto visibili agli utenti che instaurano con questo sistema una sorta di dialogo (ad esempio, il sistema di Amazon propone all’utente libri che potrebbe trovare interessanti basandosi sulle scelte degli altri utenti).
L’interazione con l’utente è fondamentale nel momento in cui l’azienda vuole associare il prodotto da vendere con il messaggio trasmesso: quando un’azienda ragiona sulla propria esistenza, sul prodotto che vende e sulla sua relazione col mercato, confronta l’esistente col possibile. Questo si fa lavorando sulla conoscenza che si ha, che deriva dai dati (cioè dai numeri raccolti), ma anche dalla conoscenza non numerica che l’azienda raccoglie da competitors e clienti.
Questo ambito di gestione della conoscenza si fa sempre più significativo all’interno delle organizzazioni moderne, è un aspetto nuovo.
Ed è interessante vedere che alcune aziende hanno forti interazioni con i clienti e sono sempre più sensibili all’opinione pubblica e alla relazione con la clientela. Ad esempio, per la FIAT 500, è stato lanciato un sito web (500 giorni prima del lancio sul mercato) che raccoglieva le indicazioni dei clienti potenziali e futuri e di fatto ha influenzato il prodotto poi presentato al mercato (ad esempio il cruscotto è stato un elemento ridisegnato richiamando quello della 500 originale secondo l’indicazione del pubblico).
L’interpretazione del mercato deve necessariamente passare attraverso l’interazione con i potenziali clienti.
Per farlo, ci interessano quindi gli strumenti per la gestione della conoscenza e della collaborazione (groupware). La comunicazione, sia interna che esterna, è essenziale per il successo di una azienda.
Tutti gli strumenti che si diffondono nelle organizzazioni sono sempre più orientati alla gestione della conoscenza, non solo per interpretare il mercato, ma anche per permettere la condivisione della conoscenza all’interno dell’azienda; ad esempio, un’azienda con delle sedi separate e lontane (e.g. Milano e Roma), potrebbe utilizzare dei sistemi di gestione della conoscenza e della comunicazione per avvicinare le esperienze reciproche, impedendo lo sviluppo di due nuclei separati e fornendo così localizzazione ed integrazione del know-how24.
I sistemi di gestione della conoscenza interessano anche chi deve prendere decisioni più piccole e meno strategiche, per esempio il customer service che deve dare delle risposte ai clienti può avvalersi di FAQ, ovvero un insieme di risposte a domande comuni formalizzate a partire dalle conoscenze condivise. Ma qualunque forma di processo formalizzato, proprio in quanto formalizzato, prevede delle eccezioni. Esse, per loro natura, non possono essere normalizzate e alcune non sono eliminabili. In alcuni ambiti l’eccezione occupa un ruolo importante, come nella pubblica amministrazione, ad esempio, dove si stima che l’eccezione rappresenti circa la metà dei casi.
I processi sono accompagnati da un flusso di informazioni: qualora il processo non sia ben gestito, anche la comunicazione delle informazioni non è efficace.
Esistono altri processi, quelli decisionali o quelli di progettazione, che sono pianificabili, ma il modo in cui si organizza un progetto influenza la sua realizzazione e non è conveniente che il progetto sia troppo rigido. In questi casi si può pensare che il processo sia un flusso di conversazione che contiene al suo interno dei passaggi formali e precisi.
Ci sono processi decisionali e processi di progettazione che non possono essere troppo rigidi, perché’ il flusso di conversazione è importante tanto quanto i vincoli o le specifiche di progetto.

Integrazione dei 3 ambiti
Fino a pochi anni fa, i mondi dei sistemi di supporto alle operazioni e decisioni e i sistemi di gestione della conoscenza erano completamente separati ed inconciliabili; tra questi sistemi, però, non ci sono distanze incolmabili. In primo luogo per accedere ed utilizzare entrambi i sistemi si utilizza il personal computer: prima c’era una macchina dedicata per ogni funzione, ma attualmente il computer è universale e i sistemi sono reperibili nello stesso posto. I computer sono inoltre diffusi e sempre più centrali nella comunicazione: negli anni 80, alla domanda
“quanti computer servono alla mia azienda?”, venne data la risposta “più o meno tanti quanti apparecchi telefonici avete”, questo è un primo segno di come il computer sia diventato uno strumento importante per la gestione della comunicazione.
Quindi nel corso degli anni, oltre ai sistemi informativi per la gestione dei dati dell’azienda, sono stati introdotti dei sistemi per la gestione dell’azienda, della conoscenza e della comunicazione. Si è creato un percorso di dati che va dal sistema informativo di paghe e amministrazione fino ai sistemi di groupware che contiene una serie di informazioni sfumate e via via meno precise.
I flussi di informazioni e l’integrazione del groupware coi sistemi di supporto alle operazioni fanno si che in linea di massima non esistono più sistemi contenenti dati statici. Ad esempio, non esistono più dei sistemi per la gestione dei pagamenti dei dipendenti, perché’ essa viene accorpata ad un sistema più complesso di gestione della carriera. Questo permette di offrire di più ai dipendenti, oltre al rapporto di lavoro, migliorando il legame con l’azienda.
Il cambiamento dei sistemi informativi, che integra sempre più la registrazione dei fatti coi flussi di comunicazione, si adatta inoltre al cambiamento sociale ed in particolare al cambiamento nel modo in cui si vede il rapporto di lavoro: esso è diventato una partnership tra i dipendenti e l’azienda. L’azienda ha interesse a valutare i suoi dipendenti e mantenere un dialogo con essi relativamente alle condizioni lavorative. Per questo il dipendente non è valutato solo dall’alto, ma anche dai colleghi (peer-to-peer evaluation). I sistemi informativi aziendali puntano sempre più a sistemi di gestione del personale aperti al personale stesso, fornendo loro la possibilità di esprimersi sull’ambiente di lavoro, sugli obiettivi posti, eccetera.
Le tecnologie disponibili oggi per le conversazioni e lo scambio di informazioni includono:
e-mail: che è universalmente adottata, nella quale la traccia della comunicazione è generata automaticamente;
skype: molto utile per le comunicazioni verbali;
servizi di videoconferenza tra più persone: migliori di skype per la comunicazione tra più persone;
telefono.
Alle informazioni scambiate sono legati dei documenti, gli attachment, che sono comodi ed utili, ma creano una ridondanza e una certa confusione perché’ legati, ma non integrati, alla discussione e quindi presenti spesso in più versioni, quindi non uniche e non ben organizzate temporalmente.
Per ovviare agli svantaggi in questo senso degli attachment, sono nati dei sistemi specifici: i document management systems. Ne esistono diversi, una delle versioni più celebri è il wiki.

Costi
I costi principali che derivano dall’utilizzo dei calcolatori sono:
acquisto
installazione
mantenimento
training operator (corsi di istruzione per i tecnici che vi operano)
Quando un’azienda si rivolge ad una esterna per ottenere dei servizi. E’ necessario per gestire al meglio ciò che l’azienda realizza (core business), tutto ciò che è esterno viene trattato come costo (outsourcing).
I contratti di outsourcing sono contratti lunghi e complicati dove l’azienda richiede all’esterno delle prestazioni che non sono strettamente correlate al suo “core competence”, cioè l’azienda delega all’esterno tutto ciò che non è puramente legato a ciò che l’azienda deve realizzare. Si cerca di spostare quella che è una competenza dell’azienda all’esterno, rendendolo costo, ma si risparmia nelle risorse impiegate all’interno dell’azienda.
I settori in cui prima s’è fatto l’outsourcing è l’ICT, la logistica e, di recente, anche l’amministrazione stessa. Un vantaggio che si ha è che l’organizzazione è sollevata da alcuni oneri che sono caricati su aziende esterne come servizi (si usa il know-how esterno), una diretta conseguenza è che però si perde il controllo diretto e costante su ciò che viene effettuato in outsourcing.
La stima dei costi è un forte problema per l’informatica, soprattutto se orientati a stimare i possibili risparmi che potrebbe generare l’adottare una tecnologia (Ex: con una posta elettronica è difficile stimare dove si sta risparmiando).
Una figura che assume valore in dipendenza di questo è abile a diminuire i costi dell’informatica
è il CIO (Chief Information Officer), perché dimostra che il suo potere non dipende dal denaro che gestisce, ma da quanto denaro fa risparmiare all’azienda.
La situazione attualmente presente nelle organizzazioni ha varie caratteristiche
la tecnologia si è stratificata e si è riorganizzata generalmente intorno a un ERP aggiungendo dei pezzi. Il livello di eterogeneità è complicato dal fatto che ci sono sia sistemi batch sia sistemi on line (web based, ….)
l’accesso a tutti i servizi erogati dai sistemi avvengono tramite personal computer.
Il problema per chi usa le tecnologie e per chi le produce è quello di valutare quello che è a disposizione e per farlo occorre trovare dei criteri rigorosi.
Caso di studio selezionato: “United Parcel Services (UPS): delivering packages and e-commerce solutions”, ad opera del center for information systems (MIT).
Introduzione
Dall’alto dei suoi 15milioni di colli quotidiani, UPS è il leader mondiale del trasporto pacchi.
La società, nata nel 1907 col nome American Messenger Company, ha accresciuto durante il secolo la sua fama di compagnia di trasporti affidabile ed efficiente, finchè alle soglie del 2000 è risultata essere la più vasta organizzazione di trasporti del pianeta, con circa 13milioni di pacchi trasportati al giorno in più di 200 paesi.
Negli ultimi anni ha esteso il proprio business ben oltre il “semplice” trasporto di oggetti: investendo in ricerca e sfruttando le potenzialità dell’IT, ha introdotto una moltitudine di servizi aggiuntivi.
La tecnologizzazione dell’azienda non è stata una scelta dettata da precise priorità. L’introduzione negli anni ’80, da parte dei competitors, di servizi altamente tecnologici non ha suscitato nel management alcun desiderio di emulazione e v’era anzi riluttanza a spendere più dell’1% del budget annuale in sistemi informatici. Fu solo un cambio dei vertici nel 1986 a portare il benefico cambio di rotta, che condusse a massicci investimenti e alla creazione dell’esteso parco servizi. Tra il 1986 e il 1996 UPS ha riversato più di 11 milioni di dollari nell’IT, portando il proprio parco di professionisti informatici da 100 a più di 4000 unità.
Questa decisione ha avuto ripercussioni sui sistemi, sui servizi offerti ai clienti, l’ottimizzazione delle attività, i rapporti con i partner e la gestione del personale.
Sistemi
Nel bruciante avvio degli investimenti nell’IT, UPS ha subito realizzato una facility nel New Jersey dedicata a storage ed elaborazione dei dati; tale complesso avrebbe dovuto rivestire il ruolo di database centralizzato di tutti i fatti e informazioni riguardanti l’organizzazione, fornendo un punto di accesso unico per tutte le filiali dell’azienda.
Il db centrale era fondamentale innanzitutto per assicurare le capacità di tracking, ovvero la conoscenza in ogni istante della localizzazione di un pacco. Tale innovazione, introdotta dalla concorrenza, era molto gradita dai clienti. UPS ritenne dunque imperativo investire in
una rete capillare che consentisse questo flusso di informazioni: il network, che prese il nome di UPS Net, fu varato nel 1990.
Il database doveva contenere non solo le informazioni sui pacchi (una quantità già enorme, circa 200 gli attributi per ogni oggetto spedito) ma anche sugli altri aspetti: logistici, dati dei clienti e del personale. Questa gestione dei dati ha impattato sul core business di UPS, sulle sue modalità organizzative e sulle modalità di collaborazione.
Una volta assicurata una solida infrastruttura, UPS ha iniziato a calcare la mano sulla tecnologizzazione delle proprie attività. Nel 1993 ha introdotto DIAD, un sistema automatico di riconoscimento dei colli che, in tempo reale, riconosce il pacco e aggiorna i database con le operazioni effettuate su di esso (partenza, trasporto, ritiro, ecc). DIAD consiste in un mini-terminale, attualmente basato su Windows Mobile, dato in gestione a chiunque maneggi i pacchi. Il terminale è dotato dello stato dell’arte della connettività (la quarta release, attualmente in uso, ha Wi-Fi e GPRS, ma anche bluetooth e infrarossi per potersi connettere a computer e stampanti) e naturalmente di un GPS, per aiutare gli autisti nella ottimizzazione dei percorsi e per aggiornare la posizione attuale del pacco. L’analisi delle informazioni trasmesse dai DIAD fa emergere una pletora di dati che la compagnia sfrutta per profilare i clienti, ottimizzare i flussi delle spedizioni e per mettere in pratica un activity based costing. Inoltre, dai dati emergono eventuali “vizi” o peculiarità della progettazione delle spedizioni dei clienti, il che consente a UPS di proporre consulenze e servizi di reingegnerizzazione. L’ottimizzazione delle spedizioni, campo classico della ricerca operativa applicata all’informatica, la fa da padrone nelle attività di UPS.
L’esplosione del worldwide web a metà anni ’90 ha aperto nuove opportunità, sfociate nella introduzione di una vasta gamma di servizi basati su internet (UPS Online Tools). Fu una delle prime compagnie a dotarsi di un proprio sito web e, molto prima della teorizzazione del cosidetto e-commerce, intuì le potenzialità del collocarsi tra produttori e consumatori, tagliando fuori dalla catena rivenditori e distributori.
Tutti i sistemi informatici sono stati sviluppati internamente ad UPS. Molte applicazioni non sono rimaste appannaggio esclusivo della compagnia – ad esempio, il già citato tracking o i sistemi di preventivo dei costi aggiornati in tempo reale in tutto il pianeta – ma son state rese disponibili ai clienti: chi vuole può integrare questi applicativi nei propri software, anche nei sistemi ERP. UPS fornisce le API e la docuementazione, chiedendo solo il mantenimento del brand.
Tenendo a mente questo cambio di target delle applicazioni – dall’uso interno allo sviluppo customer-oriented – i reparti IT han cominciato a sviluppare in maniera quanto più possibile interoperabile e modulare:
l’adozione sistematica di standard aperti ha reso vincente UPS sotto il primo aspetto, e oggigiorno moltissime compagnie incorporano agevolmente le funzionalità di UPS nei propri software;
la modularità ha facilitato il riuso e l’aggiornamento di codice, accelerando i miglioramenti e le nuove implementazioni. Purtroppo, le limitazioni di budget impongono un freno a questa corsa. Tale aspetto sarà visto meglio nel paragrafo organizzazione.
La struttura fortemente centralizzata dei sistemi descritti finora era assai prona a brusche interruzioni in caso di disastri; una compagnia come UPS non può permettersi dei down-time. Per questa ragione, nel 1996 il chief information officer decise di introdurre un data center parallelo ad Atlanta che replicasse tutte le operazioni, assicurando l’auspicabile business continuity. La robustezza e l’efficienza di UPS sono così elevate che l’azienda può
garantire spedizioni in finestre temporali ristrettissime (anche un’ora per i servizi critici).
Tra le innovazioni tecnologiche rilevanti degli ultimi anni, UPS ha introdotto il tagging RFID dei propri colli speciali, scelta che ha velocizzato le procedure di riconoscimento e risolto il problema della lettura dei tag visivi (come i codici a barre) sui pacchi di forma irregolare . Inoltre, è stato realizzato un sistema di riconoscimento vocale (UPS Interactive VoiceResponse) per alleggerire il carico di lavoro umano ai centralini telefonici. Come si evince, UPS tiene in particolare considerazione l’evolutività dei suoi sistemi e abbraccia di buon grado qualunque nuova tecnologia possa aumentare la produttività.
Organizzazione
Le decisioni strategiche in UPS vengono prese sulla base dell’analisi dei dati raccolti dalle due facility di elaborazione dei dati, organizzati nelle data warehouse e proposti tramite un enterprise information system. Per quanto concerne le strategie a lungo termine, UPS svolge continuamente attività di intelligence e sopratutto analisi di mercato. Verificando periodicamente l’offerta della concorrenza può cercare di colmare il gap (emulazione competitiva).
Le decisioni all’interno di UPS all’inizio venivano prese esclusivamente in seguito alle valutazioni del senior management committee. In seguito al processo di informatizzazione, è stato introdotto l’IT steering committee formato da quattro esperti che, ogni quarto trimestre, impongono la direzione tecnologica. Nel corso dell’anno, la commissione raccoglie le idee e le richieste provenienti dai vari settori della compagnia; poiché, come detto, i dipartimenti IT sono tutti radunati nelle due sedi parallele – e non è previsto che sottogruppi si dedichino a necessità di singole filiali – si privilegiano i progetti trasversali. Non essendoci un budget infinito van decisi i progetti da sviluppare, ordinandoli per priorità ; la rilevanza viene calcolata dallo steering committee sulla base dei costi e benefici attesi: un sistema di supporto alla decisione elabora i dati, basandosi su parametri come ritorno di investimento previsto, impatto su altri sistemi/procedure, e così via. I progetti con priorità più alta vengono quindi discussi ed eventualmente ridimensionati; infine viene assegnato un budget e delle risorse umane. Un aspetto significativo di questo meccanismo è che il sistema decisionale privilegia i progetti a breve termine perché se una implementazione richiede più di un anno, UPS ritiene che il mercato sarà già mutato prima della conclusione dello sviluppo.
Lo steering committee impone che tutti gli applicativi riflettano lo stile e l’impianto grafico della compagnia. Per questa ragione decide a tavolino i templates da utilizzare per qualunque pezzo di software sviluppato; l’intera organizzazione ci si deve attenere.
Per quanto concerne gli obiettivi non direttamente correlati all’IT, i vertici di UPS fan largo utilizzo del cosidetto sentiment mining, sfruttando la piattaforma Radian6 che effettua il monitoraggio dei principali social networks (forum, blogs, facebook, linkedin, twitter, youtube, ecc) e fornisce delle dashboard riepilogative della reputazione della compagnia in rete. Tra gli altri aspetti tenuti sotto stretta sorveglianza c’è anche lo sfruttamento del brand.
Al fine di esplorare possibilità radicalmente nuove, UPS ha anche dato il via ad una divisione chiamata e-Ventures, che si occupa di identificare nuove frontiere di business nel campo del web, non riconducibili alle attività della concorrenza e che potrebbero aprire nuove partnership con altre compagnie. Il primo prodotto di e-Ventures, approvato dal
senior management nel 2000, fu UPS e-Logistics, una piattaforma on-line completa di gestione delle spedizioni per le compagnie che adottino UPS come corriere standard. L’idea di e-Logistics è offrire un unico pacchetto integrato che fornisca qualsiasi aiuto possa servire: dalla gestione del magazzino al tracking, passando per la gestione dell’ordine, il supporto telefonico, eccetera. E-Ventures produce in media una trentina di proposte innovative all’anno.
Nel 1997 UPS ha istituito un fondo chiamato UPS Strategic Enterprise Fund, il quale monitora, valuta e investe in compagnie emergenti che esplorino nuovi mercati e tecnologie di potenziale interesse. Proprio tale fondo ha identificato e condotto all’acquisizione nel 2004 di Impinj Inc., ditta produttrice di tag RFID.
Collaborazione
Come si evince dai paragrafi precedenti, UPS ha diverse tipologie di clienti:
i privati che si inviano pacchi;
le aziende che si appoggiano ad essa per recapitare i pacchi ai propri clienti
(commercio on-line senza intermediari di alcun genere);
le aziende che non solo spediscono pacchi ma sfruttano anche le loro applicazioni informatiche.
La comunicazione con i clienti del primo tipo avveniva principalmente tramite dei call center, ma con l’esplosione del web gran parte dell’attività di supporto è stata dirottata sull’e-mail. Ad esempio, è possibile ricevere notifiche via posta elettronica dello stato della spedizione, o controllarlo direttamente dal sito. L’esubero di personale telefonico, cui ha contribuito anche il sistema di riconoscimento vocale, ha consentito ad UPS di creare un nuovo fronte di business: la concessione di tale personale alle aziende partner (UPS Business Communication Services).
Le organizzazioni che sfruttano i servizi informatici possono comunicare con UPS anche tramite una sezione del sito raggiungibile tramite autenticazione. Per evitare di dover soddisfare quantità enormi di richieste ricorrenti, UPS ha predisposto una serie di FAQ in tutte le lingue e una knowledge base in cui tentare di trovare la risposta più velocemente.
C’è un solo tipo collaborativo che avviene senza il coinvolgimento di sistemi ad hoc, ed è quello verso i partner che non mostrano interesse per i servizi aggiuntivi. Tali aziende vengono contattate personalmente da un electronic commerce account manager che propone eventuali funzionalità dal portfolio UPS che, in base ad analisi di spedizioni e carichi, potrebbero risultare vantaggiose.
La collaborazione interna in UPS avviene in differenti maniere:
Gli amministrativi operano tramite telefono e/o e-mail; opportuni servizi di ticketing via web gestiscono il flusso di lavoro per i problemi tecnici; un applicativo ad hoc, sempre basato sul web, si occupa di raccogliere e organizzare le proposte innovative che verranno analizzate alla fine dell’anno all’IT steering committee.
Gli autisti comunicano con le filiali o le sedi centrali tramite il mini-terminale DIAD, in costante collegamento. Gli uffici amministrativi possono trasmettere delle informazioni urgenti (ad esempio sul traffico, variazioni di destinazione, eccetera), facendole apparire sul display.

Fondamenti di Informatica per l’organizzazione
Seconda parte del corso: lezioni 7-12
Dispense redatte da:
Antonio Ceparano,Vincenzo Ferme,Monica Menoncin,Alessandro Re
Verificate dal professor Giorgio De Michelis per assicurare l’assenza di strafalcioni.
DISPENSE AMPLIFICATE DAL DOTTOR STEFANO FANTIN
Per poter introdurre innovazione all’interno dell’azienda, è innanzi tutto necessario conoscere l’infrastruttura tecnologica di cui disponiamo. Essa è importante ed accompagna l’evoluzione dei sistemi informativi e perché tale evoluzione avvenga, bisogna tener conto delle tecnologie.
Innovazione
Anni ‘60/’70
Sistemi adottati: sistemi per la gestione delle operazioni.
Localizzazione: in house1/in services.
Tecnologia: Mainframe2
Le aziende sono nel pieno dello sviluppo industriale, con l’economia mondiale che ha recuperato dalla guerra e le imprese crescono a dismisura. Questo però non succede ovunque, ma in un numero limitato di Paesi industrializzati. L’Italia, nell’adozione delle tecnologie informatiche (non nella loro progettazione, come dimostra Olivetti), era un poco in ritardo rispetto agli altri Paesi.
Anni ‘80/’90
Sistemi adottati: sistemi per la gestione delle imprese.
Localizzazione: in house.
Tecnologia: su workstation in LAN, VPN in rari casi, reti a stella
Aziende in sviluppo, ma si presenta la prima crisi petrolifera: è un campanello d’allarme, ma viene vista come una fase transitoria. La crisi petrolifera è un’ostacolo alla crescita economica e lascia la situazione con elevatissima instabilità: in molti Paesi c’è un’inflazione altissima, la moneta si svaluta e i costi dell’energia e del lavoro aumentano. È in questo periodo che cresce l’idea di sviluppare in regioni ove la manodopera è a basso costo. Questo cambia sensibilmente le cose: in Italia in quegli anni avviene un cambio strategico delle imprese trainanti nello sviluppo, che fino ad ora puntavano sulla produzione di prodotti a basso costo. Emergono quindi aziende che si qualificano per l’eccellenza della qualità del lavoro (tessile, moda, meccanica, chimica). In vari settori il “Made in Italy” diviene sinonimo di qualità. Ma lo sviluppo di giganti come Russia, India, Cina, porta a delle situazioni non previste dai modelli economici conosciuti: il consumo quadruplica e questi Paesi si trovano in situazioni mai sperimentate prima.
Anni ‘90/’00
Sistemi adottati: ERP.
Localizzazione: ln house / Outsource.
Tecnologia: General Purpose (e.g. PC) via internet
In questo periodo l’economia è guidata da due fattori principali: l’instabilità e l’aumento della competizione. Le aziende cercano di riposizionarsi, trovando altri ruoli e altre tecnologie. Le imprese possono pensare di avere un orizzonte certo rispetto alle loro mosse; mentre durante lo sviluppo economico le risorse erano abbondanti e c’era garanzia di averne negli anni successivi, avendo quindi libertà di manovra per cambi strategici anche in breve periodo, ora è necessario pianificare meglio l’uso di risorse per periodi lunghi. In particolare per le tecnologie elettroniche ed informatiche, l’instabilità del mondo moderno fa si che un prodotto vincente in un particolare momento, non è detto che possa durare a lungo sul mercato. Questo vale nel breve termine e, a maggior ragione, nel lungo termine.
Anni ‘00/’10
Siamo ancora in gioco!
Anni ‘10/’20
Cosa accadrà?
La prima tecnologia a disposizione è il mainframe (IBM S/3603 è tra i primi ad entrare in azienda). Nel settore dell’ITC l’innovazione è massiccia e sono molte le aziende che nascono, si sviluppano in modo consistente, ma spariscono in fretta, a volte assorbite (come Netscape, famosa per l’omonimo browser, è ora una divisione di AOL), a volte no.
La struttura del mercato dell’informatica detta regole molto stringenti per l’innovazione.
Con la diffusione delle prime connessioni nascono i terminali per l’accesso remoto ad un calcolatore centrale (topologia stellare). Poi la rete si è sviluppata posizionando server intermedi. Solo in seguito arriva Internet, un’infrastruttura che ci permette di integrare una
moltitudine di architetture differenti (gerarchiche, peer to peer4, client-server5, anello…). In Internet tutto ciò che c’è di intermedio tra due terminali comunicanti è nascosto, le strutture si definiscono dopo che la rete è stata sviluppata. Essa ci fornisce una spaventosa libertà: non abbiamo più bisogno di una struttura che ci permette di mettere ordine. Internet è sicuramente una massive technology (nel senso inglese del termine, ovvero di elevate dimensioni).
Questo escursus storico è importante per comprendere i sistemi informativi ed, in generale, le tecnologie, perché:
le imprese, e le organizzazioni in genere, sono figlie della propria tradizione e la loro esperienza fa la differenza;
le condizioni sociopolitiche sono una componente ambientale preponderante;
l’evoluzione e lo stato dell’arte sono anche in funzione dei percorsi degli utenti.
Si assiste sempre più ad una coevoluzione delle scelte dell’azienda in base all’evoluzione dei propri clienti.
Come Klee raffigura nel suo “Angelus Novus” bisogna che “L’angelo dell’innovazione abbia lo sguardo rivolto al passato” ovvero bisogna guardare al passato per fare cose nuove.
La possibile evoluzione dei sistemi informativi
I sistemi ERP, dominati da SAP e Oracle, sono nati negli anni ’70. Sono stati realizzati per aziende che disponevano di tecnologie e strutture diverse da quelle attuali, che erano pensate per un ambiente in cui il mercato era stabile.
È chiaro dunque che c’è la necessità di introdurre innovazione, però siamo limitati da alcuni fattori, il principale è la resistenza al cambiamento da parte delle persone che utilizzano i sistemi attualmente presenti, in quanto il cambiamento richiede l’apprendimento e lo studio di qualcosa di nuovo (cosa non sempre ben vista).
I sistemi operativi in uso oggi sono principalmente
Unix (40 anni)
Windows (30 anni)
Linux (20 anni)
Questi sistemi nascono in un’epoca in cui l’informatica era fatta su calcolatori di piccole-medie dimensioni. Col tempo questi stessi sistemi si sono diffusi su workstation e server.
È preoccupante che nel mondo di oggi non ci siano sistemi più sofisticati di questi esistenti: guardando ad esempio al web, si può pensare di introdurre un nuovo sistema operativo che supporti i tag per singola pagina di un documento.
Il “fattore 9x”
Cercando di introdurre innovazione, è importante attribuire all’innovazione il giusto valore che essa potrà avere sull’utilizzatore finale.
Quando una persona crea innovazione, deve essere conscia del fatto che attribuirà a questa innovazione un valore che è triplo di quello che viene percepito dagli utenti. Questo perché l’inventore vede solo la componente innovativa, me non percepisce la necessità di cambiare anche l’ecosistema in cui questa vive. Le persone che usano le tecnologie e a cui si offre l’innovazione, attribuiranno a loro volta un valore triplo alle applicazioni che sanno usare, perché è costato loro fatica imparare e quindi danno valore proprio perché sanno usarle.
Quindi affinchè l’innovazione abbia delle chance di sostituire con successo l’esistente, deve essere nove volte migliore (il “fattore 9x”), cioé deve essere un’innovazione radicalmente diversa, che cambi realmente la vita delle persone.
Per poter introdurre innovazione è quindi necessario sviluppare dei sistemi che abbiano costi di apprendimento molto ridotti (idealmente nulli) e che quindi sostituiscano l’esistente migliorando l’esperienza degli utenti, ma inserendosi in modo naturale nell’ecosistema esistente.
COMMODITY:
Una commodity è un oggetto d’uso comune le cui qualità sono raramente specificate, perché definite e riconducibili ad uno standard. È irrilevante chi produce il bene, poiché non c’è differenziazione di quel prodotto sul mercato. Si pensi ad esempio ad un espresso od una risma di fogli: ci sono degli standard qualitativi che ormai sono diffusi e non necessitano di essere specificati né differenziati.
La qualità di una commodity è normalmente più alta di un prodotto di basso valore, proprio in virtù del fatto che essa risponde a degli standard qualitativi diffusi e garantiti. Al contrario, la qualità di un prodotto ad hoc è superiore di quella della commodities.
Quando una tecnologia diventa una commodity, significa che i problemi che stava affrontando sono finiti: essa è perfettamente installata nel proprio dominio (e.g. un editor di testo, una stampante da ufficio). Nel mondo dei sistemi informativi, se cerchiamo una componente, ma non ci preoccupiamo troppo di quello che dovrebbe eseguire in termini di performance, allora è probabile che stiamo cercando una commodity.
Nell’industria informatica, la necessità di fare innovazione sta diventando dirompente, perché l’innovazione introdotta è sempre meno nel sistema e questo mette a rischio l’intera industria: senza innovazione, l’investimento diminuisce.
Però non è facile introdurre innovazione, specialmente per una grande azienda: se essa ha un prodotto diffuso sul mercato, tale prodotto viene percepito come uno standard. L’introduzione di innovazione apre una braccia nella percezione dello standard, iniziando così un periodo di transizione dove un concorrente potrebbe entrare nel mercato e diventare una presenza importante.
La crescita della concorrenze tende a non produrre innovazione, ma tende a portare i prodotti verso uno stesso punto di convergenza. Per le aziende leader di settore, l’introduzione di innovazione:
genera la perdita del rapporto col mercato che si ha in precedenza;
non genera vantaggi economici rilevanti;
aumenta la confusione tra i clienti;
vincola l’azienda all’innovazione stessa: in caso di fallimento, esso sarebbe totale poiché non sarebbe possibile tornare indietro.
Quindi bisogna creare un ambiente ottimale di comunicazione col cliente attirandone l’interesse per poter riuscire ad introdurre innovazione sul mercato. Come detto prima, le funzionalità offerte devono essere molto vantaggiose ad un costo d’apprendimento tendenzialmente nullo.
Per quanto riguarda un’azienda, è chiaro che le sue necessità possono cambiare. Le scelte passate fatte dall’azienda, hanno influenzato la struttura del sistema informativo di cui essa si avvale. Allo stesso modo, la struttura data al sistema informativo dell’azienda ne influenza il futuro: ciò che esiste condiziona le scelte e crea dei pregiudizi (da intendersi come convinzioni e consuetudini dovute a situazioni di alta stabilità).
Ad esempio, fino agli anni 60/70 si pensava che il linguaggio ellittico (ovvero in cui si verifica l’ellissi, cioè l’omissione delle parole) fosse condizionato dalla sincronia (cioè dalla continuità temporale), ma non dalla località degli interlocutori (una discussione poteva essere fatta anche al telefono). L’arrivo della e-mail ha però fatto cadere questa convizione: né sincronia né località influiscono sulla nostra comprensione del linguaggio, che invece dipende esclusivamente dal contesto. Il mondo non è cambiato in seguito ad aver compreso ciò, ma questa comprensione ci permette di concepire qualcosa di nuovo.
Per capire i sistemi informativi usati in un’organizzazione bisogna tenere conto di due storie:
la storia della tecnologia, perché se una azienda è nata una trentina di anni fa, le tecnologie che avrà adottato saranno molto influenzate dalla storia;
la storia delle aziende, perché per molte aziende la storia non è lineare, ma soggetta a fusioni, scorporazioni, acquisizioni, e quindi il loro sistema informativo sarà mutato con esse.
L’evoluzione dell’azienda è importante per chi sviluppa i sistemi informativi: i sistemi informativi sono entità dinamiche e a volte sono soggetti a tempistiche molto strette.
Per sviluppare il sistema informativo di una azienda è innanzi tutto necessario capire quali sono le esigenze delle organizzazioni. Il primo passo è interpretare le necessità dell’azienda e saperne capire i problemi, cercando di cogliere l’idea su come essa funziona. Infatti oggi le organizzazioni non sono più capaci di dire di cosa hanno bisogno senza immaginarsi la soluzione che vorrebbero (ad esempio non chiedono di “poter amministrare la logistica”, ma chiedono “un database per la logistica”). È quindi nostro compito sapere interpretare tali necessità: ogni azienda ha scopi e ragioni diverse, quindi bisogna creare sistemi che rispondono ad ogni singola esigenza.
Il primo problema quindi consiste nel riuscire ad:
individuare tutte le informazioni possibili, in quanto è impossibile accedere a tutte, poiché nessuno all’interno dell’azienda conosce ogni singola parte del sistema in loro possesso,
riuscire a consigliare l’azienda nelle scelte da prendere, ascoltandone le esigenze.
Poi vogliamo distinguere le tre facets dei sistemi, analizzando i livelli di integrazione tra queste facts, individuarne i punti di rigidità, i problemi emergenti (ci indicheranno da dove verranno fuori le domande che renderanno i punti di rigidità dei problemi).
Vista la rigidità a cui sono sottoposti i problemi, la questione non è più quella di integrare un dato X con un dato Y, ma è quella di definire le possibilità di integrazione. Bisogna ridurre i costi di integrazione, potendo consentire ad un’organizzazione di cambiare radicalmente la sua struttura.
Un altro problema da affrontare è quello del dove porre i servizi: è possibile dotare l’azienda di una e-mail, ma se c’è un sistema di customer management, ad esempio, possiamo integrare l’e-mail a tale sistema. Molti sistemi di document management, infatti, oggi integrano tecnologie come l’e-mail.
Il problema dell’integrazione si pone anche in questo ambito: più ci spostiamo verso i
gruopware, più abbiamo problemi di integrazione che riguardano gli strumenti utilizzati e i loro settori di utilizzo.
Per ragionare meglio, faremo un quadro di quello che c’è in Italia, per due motivi:
probabilmente ci troveremo ad analizzare le organizzazioni italiane;
le aziende italiane hanno caratteristiche uniche.
Imprese Italiane
Le imprese italiane vanno classificate in gruppi con caratteristiche distintive, ma riuscendo sempre ad identificare univocamente ogni azienda. Ciò ci guida nella capacità di produrre idee ad hoc per ogni azienda, ma modularmente e con una base comune.
L’Italia è uno dei più importanti produttori manifatturieri del mondo ed è il 5° esportatore al mondo, in Europa è secondo solo alla Germania. A parte i beni culturali, l’industria manifatturiera è la nostra prima risorsa e ci permette di avere un buon tenore di vita.
Sul mercato, siamo forti in alcuni settori del B2C (Business To Consumer), i principali sono la moda, arredamento, elettrodomestici “bianchi” (frigoriferi, lavatrici, e quelli che di solito sono colorati di bianco). Nei piccoli elettrodomestici siamo molto forti, tra i primi al mondo. Inoltre lo siamo nell’agroalimentare e negli strumenti per l’agricoltura.
È fortissima l’industria meccanica, non solo nelle automobili e nelle moto, ma anche nella meccanica B2B (Business To Business): macchine per gelati, per la carta e per la lavorazione del legno.
Siamo leader tra i costruttori di piastrelle, di montature per occhiali, nelle tinture e nelle vernici. La leadership che abbiamo è fortemente dovuta all’innovazione e all’alta qualità, non necessariamente per quantità vendute. Tale leadership non è affatto garantita: i competitors con cicli di sviluppo più rapidi possono metterla in crisi.
Nel nostro Paese ci sono migliaia di aziende interessanti sotto diversi profili; ciò implica che non abbiamo grandi aziende, se non quelle in cui lo Stato ha un ruolo rilevante e in cui può agire e regolarle, ma che quindi non lavorano su un mercato libero vero e proprio.
Le imprese italiane possono essere descritte mediante alcune caratteristiche:
competono a livello globale;
sono piccole (non tutte, ma abbiamo molte imprese medie e molte medio/piccole);
sono innovative;
sono radicate nel territorio;
hanno una struttura a rete;
sono guidate da un padrone/fondatore;
fanno fatica a durare oltre la prima o la seconda generazione;
crescono in fretta;
sono poco informatizzate.
Essendo aziende piccole, ma competitive su scala globale, vengono denominate “multinazionali tascabili”. I loro prodotti sono considerati instabili. Sono aziende nate e ancora insediate nei”distretti industriali”, collaborando con altre aziende formando così una rete di aziende ed organizzazioni che è forte a livello internazionale. L’efficacia della rete influenza l’efficacia delle loro operazioni. I distretti industriali diventano così zone con alcune delle migliori aziende del mondo.
Essendo radicate nel territorio, gran parte degli imprenditori di tali imprese si occupa anche di valorizzare il territorio, poiché se la qualità del territorio è alta, anche la qualità del lavoro è migliore.
La leadership di queste aziende è spesso legata ad una singola persona, un padrone o un fondatore con notevole capacità imprenditoriale.
Chi succede al leader carismatico, non ottiene lo stesso successo né lo stesso appoggio: deve saper amministrare con capacità anziché con carisma. Per poter guidare queste aziende, il leader si occupa di molti aspetti: non vi sono persone specializzate in marketing, sulle scelte strategiche o sui rapporti col pubblico, ma fa tutto una sola persona.
Tali aziende fanno quindi fatica a durare oltre la seconda o la terza generazione. Inoltre si pone un problema notevole da una generazione alla seguente: poiché molte aziende italiane sono familiari, “nate in un garage”, la successione dell’azienda diviene un problema a causa della numerosità degli eredi, sempre crescente da una generazione alla successiva. Quindi a volte è più conveniente vendere l’azienda quando guadagna.
Le aziende italiane sono anche molto innovative: creano prodotti nuovi e competono per l’eccellenza.
Nonostante questo, sono poco informatizzate per quanto riguarda tutto ciò che non è strettamente legato al prodotto e al processo produttivo, ovvero su tutte quelle tecniche che servono per trasformare il denaro in prodotto e vice-versa. Per gli imprenditori italiani, l’informatica è qualcosa che subentra in seguito, quando non è più possibile evitarlo, con la speranza di non distruggere l’azienda con tale introduzione. Invece, l’informatica deve essere un elemento importante per il business: aziende come Ikea, Zara, RyanAir, hanno sistemi informativi fondamentali per il loro business. L’evoluzione di Ikea, ad esempio, è stata accompagnata dall’evoluzione del loro sistema informatico (specialmente per la logistica, ma anche per lo scambio di ordini e di conoscenza all’interno dell’azienda).
La crescita delle aziende italiane è comunque piuttosto veloce, tanto che il loro trend spesso ricorda quello delle industrie hi-tech. Una critica mossa dagli economisti verso la nostra industria è che i suoi settori sono quelli “tradizionali” in cui non c’è crescita, ma grazie all’innovazione e cambiamenti radicali nel settore, la crescita avviene comunque.
Ad esempio, nell’industria dell’occhiale Luxottica ha saputo ristrutturare il mercato, occupando sia posizione di produttore di montature, sia il ruolo di venditore, avendo un enorme guadagno nel valore aggiunto (trovandosi così a contatto diretto con i clienti da cui può riceve feedback diretto sia sui propri prodotti, sia su quelli dei competitors).
L’innovatività non può sempre essere presente: 3M si è data un codice di innovatività, secondo il quale ogni anno l’azienda deve rinnovare almeno il 25% del proprio campionario. Questo è lodevole, ma se si pensa ad una azienda della moda che in un anno (o anche meno, 4 mesi nel caso di Zara) rinnova completamente il proprio campionario, richiede chiaramente un processo molto diverso.
L’informatica deve avere un ruolo utile all’interno dell’azienda, deve creare valore aggiunto e non essere una presenza marginale. Noi ci occupiamo dell’informatica che assume tale ruolo, quindi siamo interessati a capire come possiamo aiutare l’impresa italiana.
Dato che le imprese crescono in fretta, abbiamo bisogno di sistemi informativi evolutivi: la
crescita dell’azienda richiede le capacità da parte dei sistemi di poter gestire nuovi problemi; il problema da affrontare non è solo nella capacità di up-scale dei sistemi, ma è quello di renderli flessibili alla gestione di nuovi problemi.
Essendo imprese a rete, il loro governo è strettamente legato alle interazioni tra le aziende: servono sistemi “aperti”, dove l’apertura non venga gestita solo da un lato (quello delle aziende con cui si interagisce), ma dove sia possibile adattarsi, sapendo interagire con sistemi informativi altrui.
Nell’insieme dei sistemi aperti, uno particolare è quello della logistica: essendo multinazionali tascabili, la numerosità dei Paesi in cui operano è importante, bisogna quindi saper gestire le spedizioni perché ogni consegna mancata è una potenziale vendita persa. Organizzandosi adeguatamente si possono ottenere ottimi risultati.
Le imprese innovative non possono fare investimenti poliennali, perché gli investimenti hanno vita breve. Nel lungo termine si fanno scelte che valgono per intere famiglie di prodotti. Quindi investimenti graduati.
La competenza dei manager è fondamentale, essendo aziende con problemi di successione. È quindi fondamentale gestire al meglio la business intelligence e la conoscenza. Le informazioni dipendono anche dal valore della sorgente: se una fonte autorevole esprime un commento su una certa idea, quel commento assume molto più valore. Il capo designer di Apple sostiene che la progettazione di un prodotto inizia dalla “vision” di quel prodotto.
Un’azienda parte in un posto locale, crescendo rimane ancora locale, ma inizia ad avere delle direzioni o delle sedi in altri territori/Paesi. Si crea così una rete di luoghi che devono essere familiari e confortevoli per le persone che si muovono in questa rete. Le aziende infatti spendono sempre più nella valorizzazione del territorio in cui si trovano.
I sistemi si trovano quindi in situazioni dove è necessario gestire eventi inaspettati, ed è importante che si sappiano adeguare.

Pubblica Amministrazione (PA)
Le organizzazioni pubbliche sono intrinsecamente diverse da quelle private: hanno un rapporto con le norme molto importante, mentre il rapporto col mercato non esiste (anche se dovrebbe). L’amministrazione italiana è vista così male che non riconosciamo le (poche) eccellenze che abbiamo. Quello sanitario, ad esempio, è un settore che funziona bene e abbiamo un ritorno economico migliore di molti altri Paesi.
La PA italiana ha difetti consolidati, molte imprese non vengono in Italia perchè non sanno quando potranno operare, per la lentezza burocratica nota di questo Paese.
A differenza delle aziende, la PA non si accorge delle prestazioni che non vengono utilizzate: non c’è un accumulo in magazzino di prodotti invenduti, ma, al massimo, c’è gente che non lavora (e spesso questa gente non se ne lamenta), quindi la perdita diventa difficile da individuare. Non c’è nessuno che misuri i servizi delle PA; serve una misura del servizio.
In Italia da qualche anno è in corso un processo di cambiamento, che ha delle linee guida “nascoste”, una delle quali è quella di mettere al centro il cittadino – cosa che stanno cercando di fare anche le aziende con i loro clienti. Quindi possiamo immaginare che i sistemi di PA e imprese hanno dei punti d’incontro.
L’inizio del processo di cambiamento è stato dato dai punti della seguente legge che ha portato, tra gli altri, 3 cambiamenti importanti:
ogni amministrazione deve stabilire quali sono le prestazioni che eroga, ovvero i procedimenti amministrativi di cui è responsabile;
per ciascun procedimento, nel momento in cui viene erogato al cittadino, deve esserci un responsabile; quindi il cittadino deve sapere chi è il responsabile per quel servizio;
per ogni procedimento amministrativo, c’è un tempo massimo in cui il servizio deve essere erogato.
A questa legge mancava qualcosa per poter essere una rivoluzione: non introduce un responsabile per un’intera classe di procedimenti amministrativi. Ovvero, anche se ogni determinato procedimento ha un responsabile nel momento in cui viene erogato ad un privato, non c’è un responsabile per quel determinato genere di procedimenti (e.g. c’è un responsabile del mio passaporto, ma non uno per tutti i passaporti).
Per poter fare questo cambiamento, ne serve un altro, che però non è ancora stato fatto: la pubblica amministrazione deve assistere il cittadino nelle sue esigenze. La legge è in secondo piano rispetto alle esigenze del cittadino, ma bisogna rispettarla. Quindi bisognerebbe che la PA guidasse il cittadino nelle scelte e nelle procedure necessarie per ottenere ciò che gli serve, e non applicando semplicemente la legge lasciando il cittadino in balia di sè stesso.
Ad esempio, se una famiglia ha bisogno dell’autorizzazione di costruire una stanza per il figlio, a questa non importa come va fatta questa camera: basta averla, perché c’è questa necessità. Quindi il cittadino è disposto a seguire le regole (che sono quindi meno importanti rispetto alla necessità), ma poiché il cittadino non è guidato nell’applicazione delle regole, l’autorizzazione verrà respinta, la procedura muore e il cittadino sarà insoddisfatto, mentre invece la PA dovrebbe accompagnarlo e dirgli: “per avere la camera dovresti fare questo anzichè quello”.
Se tutto deve essere orientato al servizio, è chiaro che i sistemi devono essere radicalmente diversi.
Il sistema deve rendere costantemente accessibile i dati base (e.g. ho comprato 20 viti del tipo A), poiché dalla base di queste informazioni è possibile dedurne di nuove (e.g. ho ancora viti di tipo A) e poter quindi reagire in modo più complesso a seconda delle situazioni e delle esigenze.
Per poter avere questi cambiamenti, servono sistemi modulari: essi ci permettono di ricombinare ininterrottamente le informazioni, poiché le tengono separate.
La crescita dell’azienda porta alla confusione nella sua organizzazione interna: in Italia raramente si fa l’analisi delle persone impiegate, della loro operatività e del valore che esse producono, idea più tipica del Giappone e dei Paesi anglosassoni. Tutto ciò che non fa parte del valore aggiunto andrebbe abolito, quindi se il sistema informatico permette l’analisi delle informazioni, consentendo il risparmio, il guadagno aumenta.
Le imprese italiane hanno delle esigenze di innovazione che sono riconducibili a ragioni di mercato. Nella pubblica amministrazione, per ragioni completamente diverse dall’azienda, c’è una forte spinta all’innovazione. Ci sono due caratteristiche relative a questa innovazione:
per mancanza di risorse economiche, si preferiscono innovazioni a basso costo;
l’innovazione deve tendere al miglioramento delle prestazioni e anche ad un cambio di mentalità delle persone, premiando i loro meriti secondo obiettivi, ma bisogna avere un metodo per poter porre obiettivi ragionevoli. Senza informatica non sappiamo che obiettivi vengono posti.

Software Modulare
Per poter creare sistemi flessibili, evolutivi e scalabili, dobbiamo avere la modularità, ovvero quella proprietà che permette di creare un sistema bottom-up (dal basso verso l’alto).
Innanzi tutto bisogna avere i moduli, quindi serve un “archivio” di moduli. Essi devono poi essere interscambiabili, ovvero deve essere possibile sostituire un modulo con un altro modulo equivalente, e questo si fa permettendo lo scambio di informazioni tra moduli mediante interfacce definite: l’interazione dei componenti non deve variare col variare dei moduli.
Il software modulare scopre un nuovo paradigma di integrazione tra componenti con lo sviluppo dei mashup (applicazione web ibrida), ovvero creare qualcosa partendo da sorgenti diverse, ad esempio usando delle API create inizialmente per scopi diversi, ma poi combinate per produrre un nuovo prodotto.
Quanto devono essere semplici i moduli in un sistema modulare?
I moduli dovrebbero essere realizzati nel modo più semplice possibile. Ogni azienda può gestire in modo molto diverso le relazioni più complicate (e.g. gestione del personale), ma le funzionalità elementari rimangono le stesse (e.g. payroll). Moduli piccoli consentono maggiore riutilizzo, minor tempo di sviluppo e costante evoluzione (e.g. se si separa l’interfaccia utente, bisogna accertarsi che essa sia coerente, ad esempio bisogna poter utilizzare il copia-incolla indipendentemente dal sistema per cui quella UI viene realizzata).
Il problema che si pone è, chiaramente, su come realizzare l’interazione tra moduli. Un sistema di grosse dimensioni permetteva di avere tante informazioni legate tra loro all’interno del sistema stesso, inoltre permetteva di gestire in modo univoco le informazioni relative
alle autorizzazioni di accesso, mentre con i moduli i dati sono sparsi e i meccanismi di autenticazione possono essere vari.
Questa scomposizione ci dà, allo stesso tempo, molta libertà: i dati possiamo metterli dove vogliamo, distribuendoli a piacimento.
L’integrazione di tutte le componenti, database, moduli e interfacce, non avviene nel vuoto, ma avviene su una piattaforma: è lei che ci permette di effettuare l’integrazione, pertanto è necessario definire bene questa piattaforma.
Cio che permette la creazione di sistemi modulari è innanzi tutto uno standard sul tipo di informazione che viene scambiato dai moduli: deve esserci una corrispondenza nei possibili flussi di comunicazione tra moduli. Possiamo avere più sistemi di scrittura interscambiabili se abbiamo un unico standard per il documento, ma fino ad ora è successo l’esatto opposto: un sistema di scrittura predominante con un numero elevato di formati per i documenti. Questa situazione ha due aspetti negativi:
se lo standard è associato ad un sistema, quel sistema tende a diventare universale,
questo tende a favorire la chiusura del mercato, perché c’è uno standard che nessun altro puo generare, quindi il più diffuso diviene automaticamente il più forte.
L’agenda è un esempio di applicazione trasversale nei confronti di tutte le altre applicazioni, perché di agenda deve essercene una, pertanto ha senso gestirla a livello di sistema, e non a livello di applicazione. Il sistema è la piattaforma sul quale facciamo girare le applicazioni, mediante il quale le facciamo comunicare. Questo ci permette di separare i dati dalle applicazioni. Cio semplifica molto la creazione del sistema informativo: possiamo unire i dati di due aziende più facilmente o usare applicazioni diverse per accedere agli stessi dati.
Unire sistemi informativi è fondamentale per il processo di fusione delle aziende. Avere moduli semplici, rende più facile lo scambio di informazioni rispetto all’adozione di moduli complessi.
La modularità è spesso già presente secondo un punto di vista esterno: quello dell’utente. Egli, infatti, vede il sistema un pezzo alla volta, ovvero vede solo il pezzo che utilizza e lo percepisce come un modulo separato dal resto. La modularità apparente è il primo passo per procedere verso la modularità reale.
Questo ci consente di creare interazioni e servizi nuovi e tra componenti. L’interfaccia del sistema diventa dipendente dall’ambiente che la circonda dall’utente: il sistema risponde quando l’utente ne ha bisogno, quindi il tempo di attesa diventa essenziale per misurare l’efficacia del sistema.
È importante che l’interfaccia sia progettata a partire dall’utente, da quello che fa: l’utente si abitua ai procedimenti, anche se sono ferraginosi e privi di logica.
Infine, la piattaforma deve essere conscia di essere una piattaforma: non solo deve permettere l’esecuzione dei moduli, ma deve anche contenere tutte quelle funzioni che possono essere trasversali (e.g. agenda, e-mail) alle quali possono accedere con le primitive di sistema (proprio come accade col copia-incolla). Per il sistema, queste potrebbero essere viste come
applicazioni normali, ma sono fondamentali per poter unire le componenti.
Piattaforma = sistema + servizi trasversali.
La piattaforma non è il sistema e non lo sostituisce, specialmente in caso si abbiano sistemi diversi (Windows, Linux, Mac…), in cui subentra il middleware, che mostra più sistemi come fossero uno solo.
Quindi, i sistemi modulari devono avere almeno 4 caratteristiche:
i moduli devono essere semplici;
i moduli devono essere interscambiabili;
serve una piattaforma che sia ricca di servizi necessari per l’integrazione;
l’interfaccia deve essere progettata per soddisfare chi usa l’applicazione.
Tutte queste caratteristiche sono legate all’evoluzione: i moduli permettono di avere evoluzioni separate e permettono l’evoluzione del sistema. La piattaforma e l’interfaccia devono, a loro volta, poter evolvere secondo protocolli e procedure.

Integrazione dei sistemi
I sistemi attuali, per la grande maggioranza, sono divisi in parti che si occupano di aspetti specifici della vita dell’organizzazione: quasi sempre amministrazione, budget, bilancio (aspetti economico-finanziari), ma anche componenti per il personale, contenenti tutti i dettagli che sono rilevanti per l’impresa. Ognuna di queste parti del sistema integra, a suo modo, elementi delle 3 facets (di norma, ogni modulo lo fa in modo diverso).
Con l’evoluzione dell’azienda, con l’ingrandimento e col cambiamento nella sua struttura, si sente la necessità di un sistema informativo più complicato, integrando altri dati e altri moduli. Ciò comporta che per le integrazioni effettivamente realizzate, la risposta sia altamente efficiente. L’integrazione si fa sostanzialmente integrando le diverse facets a livello di un unico database: ogni componente ha un database che si riferisce a vari aspetti, e noi integriamo tutte le informazioni di quel database.
Nella maggior parte dei casi, i database sono relazioni e l’integrazione è a livello di informazioni, ma alcune tecnologie permettono di collegare oggetti.
Se si vogliono integrare in modo diverso due facets, le tecniche messe a disposizione dagli ERP non sono di facile utilizzo. Infatti questo tipo di integrazione ancora manca negli ERP: si può fare qualche operazione di integrazione dei dati da database diversi, ma questo richiede un’estrazione delle informazioni prima di poterle integrare nella componente di data-mining.
L’efficienza nell’integrazione è un aspetto critico per l’azienda, poiché nelle organizzazioni odierne, uno dei problemi principali è rispondere in modo adeguato e rapido ad evoluzioni non facilmente prevedibili del mercato. Per esempio, l’emergere di nuovi mercati economici quali
quello brasiliano, russo, indiano e cinese (chiamato “BRIC”), pone dei problemi alle aziende italiane, che devono capire come entrare in quei mercati e necessitano di informazioni che non sono immediatamente disponibili in un ERP. Per questo motivo, c’è bisogno di data warehouse e data mining. I manager dell’organizzazione richiedono che le informazioni di cui hanno bisogno siano fornite con tempi di risposta compresi tra una settimana e un mese: al di fuori di questo intervallo, l’impresa prende decisioni senza i dati richiesti e l’informatica perde un ruolo, venendo quindi percepita come ostacolo o problema. Creando un sistema di Business Intelligence, bisogna quindi pensare a tutte le possibili domande che il manager potrà porvi e predisporre il sistema per essere in grado di fornire una risposta. L’informatica deve seguire lo sviluppo dell’azienda!
Se l’azienda non sta comprando, ma allarga anno dopo anno il suo mercato nel mondo, bisogna adattare il sistema per adeguarsi all’espansione.
Se l’impresa sta facendo outsourcing di tutte le risorse centrali, la piattaforma deve potersi evolvere verso questa direzione. Deve quindi esserci un’evoluzione della piattaforma applicativa in modo ciclico, con un periodo compreso tra i 6 e i 12 mesi. Sopra alla piattaforma applicativa c’è però quella tecnologica, che è di carattere sostanzialmente diverso, poiché descrive qual è la modalità con cui vengono gestite le tecnologie informatiche; è fondamentale per la buona riuscita delle scelte a livello di piattaforma applicativa e alla risoluzione dei problemi. Il suo ciclo evolutivo in questo caso è poliennale e deve essere costantemente monitorato per garantire che l’architettura sia la migliore per le nostre necessità.
Ci sono quindi 3 livelli da gestire per offrire soluzioni valide:
piattaforma tecnologica (poliennale)
piattaforma applicativa (6/12 mesi)
singoli problemi (settimana/mese)
Questa divisione in livelli però non è di facile individuazione: sebbene essa sia presente, non è netta. Basti pensare all’esempio ENI, che sta attualmente sviluppando un sistema di cloud
computing, nato però con idee diverse da quelle del cloud, e poi successivamente cambiate perché anche le necessità dell’azienda cambiavano.
Tale divisione spiega anche il motivo per cui nei sistemi ERP prevalga l’uso di patch, che danno risposte veloci ai nuovi problemi, ma non migliorano l’architettura del sistema, anzi tendono a peggiorarla.
Integrare i componenti è un’attività importante, perché componenti integrati permettono di risparmiare tempo e ridurre errori dovuti alla trascrizione manuale dei dati. I fatti di una organizzazione sono uguali ovunque (amministrazione dei servizi acquistati od erogati, tener conto di ciò che entra ed esce dall’azienda, etc) e sulla base di questi l’azienda stabilisce i propri obiettivi (quanto comprare, quanto produrre, etc). L’informatica supporta il business non solo in questi aspetti, ma anche mediante l’uso di strumenti come posta elettronica, intranet, sistemi per videoconferenze, sistemi di e-commerce, etc.
La tecnologia permette di rimuovere alcune mansioni, ma ne crea altre.
Nell’attività organizzativa si trovano sempre dei lavori ridondanti rispetto alla produzione di informazione utile, bisogna quindi tener presente 3 fatti:
il lavoro eccedente non è immediatamente eliminabile;
se la prestazione rimane invariata, c’è una riduzione del lavoro necessario;
se però abbiamo progettato il sistema per migliorare l’esperienza utente, gli utenti
richiederanno l’intervento umano.
C’è una sorta di bilanciamento sul lavoro che possiamo risparmiare e le nuove necessità: riducendo l’attività routinaria, è possibile creare nuovi tipi di lavoro.
Esempio: Fatturazione
Si prenda ad esempio la differenza tra fattura ed ordine: essa è presente solo nell’impostazione, ma in realtà i due documenti contengono grossomodo le stesse informazioni. Avere un sistema, che genera una fattura a partire dall’ordine, permette di gestire il processo in modo più rapido e con meno errori. Fino a qualche anno fa, invece, quando un’azienda acquistava dei prodotti, i documenti generati dal sistema dell’azienda fornitrice erano 3:
l’ordine;
la fattura dell’azienda fornitrice;
la bolla di accompagnamento merce.
Era quindi necessario effettuare controlli per ogni passaggio: bolla-ordine, ordine-fattura, fattura-bolla. Tale processo era chiaramente costoso, sia in termini di tempo che di denaro, quindi era necessario rimuovere tali passaggi.
Per poterli rimuovere, l’azienda acquirente potrebbe dettare una condizione alla fornitrice: l’ordine è accettato solo se la bolla è identica all’ordine. Per rispettare questo vincolo, chiaramente, l’azienda fornitrice deve porre dei limiti sulla gestione dell’ordine, ad esempio respingendo variazioni successive dello stesso. L’acquirente abbatte i costi, ma la responsabilità viene quindi spostata tutta sull’azienda fornitrice che dovrà potersi rivalere di tale responsabilità.
Una seconda soluzione, potrebbe essere l’accordo tra acquirente e fornitore nello stabilire che l’ordine è aperto fintantoché la spedizione non è iniziata: solo a quel punto l’ordine non è modificabile e viene emessa la fattura. Questo riduce i controlli necessari fra ordine e fattura, ma è il magaziniere che, a questo punto, si assume la responsabilità dando conferma all’amministratore sulla merce entrata.

Sistemi Ontologici
Con sistemi che divengono man mano più rigidi, come possiamo operare? È possibile farlo se facciamo la scelta dell’integrazione leggera.
Dare una risposta ad una domanda richiede l’esecuzione di una ricerca tra tutte le fondi d’informazione disponibili. Questa operazione può essere eseguita on-line (nel senso che i tempi di risposta lo permettono) od off-line (riempiendo un database di risposte).
Se la nostra domanda non trova risposta nei dati raccolti mediante data-mining, desideriamo sapere se esistono altri modi di aggregare i dati per ottenere la risposta.
Affrontiamo, per esempio, il caso in cui un’azienda è interessata ad isolare quelle aziende o quelle persone che sono sia clienti che fornitori. Essi hanno come identificativo un codice fiscale o la partita IVA, pertanto un solo codice identifica un solo ente. Integrando i dati anagrafici e sfruttando la ridondanza, è possibile organizzare in un nuovo modo le informazioni e, in maniera relativamente facile, individuare l’ente che è sia cliente che fornitore.
Il valore aggiunto è ottenuto quando, piuttosto che suddividere clienti e fornitori, parliamo di una categoria generale, gli interlocutori, in cui rientrano altri soggetti (ad esempio la P.A., come il comune a cui si pagano le tasse). L’idea, in questo caso, è quella di considerare il concetto, e non la sintassi, come polo di aggregazione. Questo ci permette di evitare di dover integrare le basi dati ed effettuare dunque l’integrazione leggera.
Cliente e fornitore sono keyword che mi permettono di identificare alcuni degli enti con cui ho una relazione.
A questo punto è possibile creare una struttura per i nostri interlocutori, che sono individui o persone giuridiche, che potrebbero essere nuove aziende con cui avere rapporti, ma che non sono nè clienti nè fornitori (e.g. il comune, i vicini). Scopriamo quindi di avere interazioni con un insieme di persone e un insieme di soggetti giuridici.
C’è una modalità di accesso al database mediante una correlazione che non era prevista: troviamo i clienti che sono anche fornitori perché ci riconduciamo alla struttura dei dati, ma, per unire i dati e trovare una correlazione, non ci basiamo solo sui valori che troviamo, ma anche sulla ridondanza e sulla struttura (e.g. come capisco se Mac Donalds e McDonald sono la stessa azienda?).
Per evitare l’uso di keyword, cioè evitare di caratterizzare le entità con attributi lessicali, dobbiamo usare sistemi ontologici: a noi non interessano i sinonimi per una certa entità, ma ci interessa capire la struttura del mondo, ovvero l’ontologia.
L’ontologia è qualcosa di diverso da una semantica: quest’ultima è associata ai linguaggi, mentre le ontologie sono associate ai mondi. L’ontologia è lo studio dell’essere, o del “modo in cui noi stiamo nel mondo”, mentre le semantiche sono legate ai linguaggi: per poter avere un significato, deve esistere un linguaggio. Il mondo è generato da un linguaggio, che ci permette quindi di andare sempre oltre a ciò che vediamo, e l’ontologia parla di un mondo specifico.
Ad esempio, se definiamo il termine “grattacielo” come “edificio più alto di X metri”, una frase del
tipo “tornai a casa con il grattacielo in tasca” non ha senso nell’ontologia che abbiamo definito, mentre se un’ontologia prevedesse per il termine “grattacielo” anche il significato di “statuetta-souvenir che riproduce un edificio”, quella frase assumerebbe un senso preciso.
Stabilendo correlazioni tra database, noi descriviamo il mondo: è il mondo che dice le determina le parole che usiamo. Tale mondo è sempre finito: il numero di fatti nella vita dell’organizzazione è in numero finito. Il mondo evocato dal linguaggio è invece infinito e con il linguaggio possiamo rappresentare qualunque mondo possibile, poiché il linguaggio riguarda il potenziale, non solo l’esistente. In ogni caso, è la logica che ci permette di arrivare all’essenza della semantica: e la logica che dice che, se qualcuno eroga un servizio, allora è un fornitore, poiché noi sappiamo che il servizio è un tipo di fornitura.
L’ontologia ci permette di separare due fasi: aggregazione e l’eventuale integrazione. L’aggregazione consiste nel riunire ciò che ci interessa, ed è una parte significativa dell’integrazione: se ho due documenti con gli stessi dati e aggrego il loro significato, la fatica maggiore è stata fatta. L’integrazione effettiva dei file (merge o editing) è la parte minore.
È possibile correlare le informazioni contenute nei database, ma anche documenti e video, utilizzando la semantica. Il vantaggio di avere più database, anziché uno solo, è che possiamo mantenere nei database le informazioni analitiche a livello atomico.
Dobbiamo poi essere in grado di correlare le informazioni in modo da ottenere una risposta standardizzata che permetta di ottimizzare i costi e garantire un rapporto corretto con tutti i clienti (potendo rispondere allo stesso modo).
Per capire cosa è correlato con cosa, consideriamo un esempio che nasce da un’idea del Web: possiamo applicare dei tag alle risorse, in modo da riconoscere tutte le informazioni correlate. Il problema di questo approccio è che potremmo usare tag in forma diversa per rappresentare la stessa cosa (i tag sono legati alla sintassi). Una seconda soluzione è quella di riferirsi alla dimensione semantica, passando da un lessico (cioè uso delle parole per ricavare i tag) ad una semantica (ricavare i concetti e le entità).
La semantica a cui siamo interessati è però di natura diversa di quella dei linguaggi naturali, che in generale ha obiettivi più ampi di quello proposto. Grazie alla semantica possiamo caratterizzare un linguaggio mediante il quale possiamo descrivere il mondo di nostro interesse, ovvero l’ontologia.
Le ontologie possono essere descritte mediante linguaggi logici, uno dei più diffusi è OWL (Ontology Web Language).
Mediante essa, siamo in grado di muoverci nel mondo ed interpretare i fatti. È una descrizione molto astratta, utile in relazione alle azioni che vogliamo compiere.
Nell’ontologia le relazioni tra i nodi definiscono ciò che è possibile e che è rilevante per l’ontologia in questione, non al di fuori di essa, ed essa è completa rispetto alle azioni che possiamo fare.
È utilizzata molto anche per correlare cose diverse, ad esempio quando un’azienda vuole conoscere qualcosa a proposito di un’altra azienda. In questo caso devo trovare delle modalità per correlare informazioni diverse. L’utilizzo dell’astrazione è la tecnica più utilizzata:
diagnosi dell’organizzazione;
diagnosi dell’uomo;
diagnosi delle macchine.
Il tipo di astrazione dipende dalla risposta che vogliamo dare: le tre diagnosi sono correlate tra loro, anche se apparentemente tali concetti appartengono a categorie differenti.
Ognuna di queste categorie determina un insieme di diritti-doveri nelle relazioni della persona con l’organizzazione.

Cloud Computing
Tra le piattaforme tecnologiche a nostra disposizione, il cloud computing si presenta con delle premesse radicali: sebbene da un lato possa offrire grandi opportunità, dall’altro lato esso è uno sconvolgimento notevole nell’ambiente in cui si introduce, minacciando così l’industria del settore.
Già alle sue origini, e in modo più consolidato a partire da 10-15 anni fa, l’informatica si è presentata come un servizio agli utenti, cioè come risorsa preferibile in outsourcing piuttosto che in-house. I primi computer erano macchine costose, i mainframe, quindi l’organizzazione non acquistava l’intera macchina, ma pagava per poterla gestire e far girare il proprio software; la macchina però rimaneva nel “centro servizi” che offriva all’azienda tale possibilità.
Con l’evoluzione tecnologica questo vincolo dimensionale è venuto a cadere: le aziende si spinsero dunque verso la realizzazione di software in-house o all’acquisto dello stesso da fornitori specializzati. Chiaramente questo ha portato ad un sovradimensionamento della sezione ICT delle varie aziende, conducendole infine ad affrontare il problema se la scelta di produrre il proprio software fosse troppo costosa.
Le prime aziende a porsi questo problema sono state le grandi aziende, che effettivamente hanno poi puntato a spostare tutta la sezione ICT all’esterno, stipulando contratti di outsourcing: reti, server, manutenzione day-by-day, sviluppo software, non erano più attività interne all’azienda e potevano essere trattati come qualsiasi altro servizio, anche per quanto riguarda il controllo e la riduzione della spesa.
L’outsourcing ha avuto successo perché permetteva di ottenere il servizio di qualità migliore
presente sul mercato. L’azienda non poteva raggiungere quella qualità, perché la sua visione del mondo era limitata a sé stessa.
Questo processo però richiedeva una certa abilità, da parte delle aziende, nello stipulare i contratti di outsourcing, per poter garantire la qualità di quei servizi, molto complessi, che venivano acquistati. Erano quindi necessarie persone esperte di ICT che potessero controllare la qualità del servizio e, quindi, in realtà solo le infrastrutture divennero effettivamente non necessarie all’interno dell’azienda. Nell’adottare tecnologie da fornitori esterni c’è però una conseguenza negativa: non è possibile tenere sotto controllo il fornitore, che col passare del tempo tende a ridurre la qualità, ad introdurre rigidità e aumentare i costi.
Queste considerazioni spingono quindi le aziende a tornare indietro, cioè al possesso di reparti IT, o a creare delle società congiuntamente al fornitore verso le quali fare outsourcing, così da poter mantenere un controllo maggiore sul servizio offerto e sul software in proprietà.
Ed è in questo quadro che emerge il cloud computing.
Da un punto di vista concettuale, il cloud computing nasce dall’idea del grid computing, ovvero quella di utilizzare la potenza di calcolo distribuita nel mondo in maniera efficiente, cioè sfruttando l’inutilizzato. Questa idea viene inizialmente applicata alla condivisione di file musicali online, mediante reti in cui ognuno è sia un client che un server (Peer-to-Peer). Il problema
di questa architettura è che non è possibile individuare il responsabile della condivisione, in quanto impossibile determinare qual è il server da cui hanno origine i dati.
Tale soluzione distribuita è stata usata anche in ambito scientifico, per supportare la potenza di calcolo distribuita. Essa richiede però una elevata omogeneità tra gli utenti, limitando lo sviluppo del grid computing stesso. Nonostante ciò, le società che dispongono di un gran numero di server, rivolgono la loro attenzione al grid, sebbene spinte da necessità di mercato totalmente indipendenti (si pensi a Google ed Amazon). Il mercato del grid computing è attualmente in calo.
L’idea alla base del cloud computing è che gli utenti sono fruitori di servizi, non vedono come il servizio è implementato e lavorano in un ambiente caratterizzato da una spinta virtualizzazione.
Cloud Computing VS Mainframe: sono concettualmente simili, ma radicalmente diversiin termini di hardware.
Cloud Computing VS Grid: non si utilizza più il concetto di peer-to-peer.
Cloud Computing VS Outsourcing: L’azienda non fornisce il proprio sistemainformativo.
L’hardware per il cloud è spesso realizzato in modo da poter essere posto in un container di 100, 1000, 2000 server che sono già ottimizzati e raffreddati in maniera autonoma, pronti per essere messi “in vendita”.
La modularizzazione dei data center permette una gestione separata e semplificata in fase di backup, specialmente considerando che, disponendo di macchine uguali tra loro, il ripristino di un backup si riduce al tempo di trasferimento dei dati.
Il cloud computing è perfetto per le startup, perché non è necessario gestire la migrazione dai vecchi sistemi, operazione di norma molto costosa. La logica del Cloud Computing è infatti basata sul concetto di pay-per-use, ovvero di far pagare ai clienti una quantità proporzionale alle risorse che essi usano. Le risorse vengono allocate istantaneamente dall’infrastruttura, quindi l’uso delle risorse è dinamico e dipende esclusivamente dalle esigenze del momento. Questo permette di contenere i costi e crescere in modo dinamico assieme alle esigenze dell’azienda.
Da un punto di vista economico, in situazioni in cui l’uso del cloud computing non è vincolato, si ha un beneficio che per l’azienda oscilla tra il 30% e il 70%. Possono però essere presenti vincoli, che introducono un costo aggiuntivo, come ad esempio la necessità di localizzare i dati (per motivi di privacy o legistlativi), o la necessità di personalizzazione dei servizi.
L’offerta del cloud computing è caratterizzata da tre elementi principali:
Infrastruttura come servizio (Infrastructure as a Service, o IaaS), dove il servizio offerto dal fornitore del cloud è l’infrastruttura stessa della “nuvola”, composta da potenza di calcolo, storage e networking. Il cliente può quindi eseguire il proprio software (inclusi sistemi operativi) su questa infrastruttura.
Piattaforma come servizio (Platform as a Service, o PaaS), dove il servizio offerto è la possibilità di disporre di una piattaforma, fornita dal fornitore del cloud, sulla quale il cliente può eseguire i propri programmi.
Software come servizio (Software as a Service, o SaaS), dove il fornitore del cloud predispone un software per il cliente ed egli paga solo per il tempo di utilizzo effettivo di tale software.
Un problema che solleva il cloud è quello della privacy e della sicurezza dei dati, ma questo può essere risolto solo nell’ottica di un cambio radicale nella filosofia che sta alla base del nostro diritto.

Privacy e Proprietà dei Dati
Nella gestione dei dati online chiaramente si pone il problema della privacy. Il problema non sta tanto nel fatto che i dati possano essere pubblici, quanto nel fatto che qualcuno potrebbe usarli in modo improprio. L’abuso dei dati sensibili, ovvero il loro uso illegale, è ciò che deve essere punito (ad esempio, se dei dati sulle condizioni mediche di un impiegato venissero usati per licenziarlo, questo sarebbe un uso improprio ed illegale).
Un secondo problema è la proprietà dei dati: chi ne ha il controllo? Questo è un problema che per la maggior parte degli utenti è irrilevante, perchè essi condividono contenuti che sono già pubblici. Però, avendo dati solo in rete, il possesso dei propri contenuti non è reale; lo sarebbe solo se ne avessimo una copia off-line.
Esistono attualmente due modelli principali di software fornito al mercato mediante cloud computing:
modello Google, che mette a disposizione del software standard,
modello Amazon, che mette a disposizione software di mashup per realizzare softwarepersonalizzati.
Con i suoi vantaggi, il cloud porta anche degli svantaggi: innanzi tutto la migrazione dei sistemi attuali verso il cloud è molto costosa (ed è per questo che per le startup, il cloud, rappresenta un vantaggio), ma si rischia anche di diventare prigionieri del fornitore, infatti se si vuole cambiare fornitore è necessario dover anche spostare i dati, quindi servono garanzie da parte del fornitore sulla possibilità di utilizzare i propri dati in software forniti da diversi fornitori.
Da un punto di vista hardware, il cloud computing sembra una risorsa illimitata: l’utente non ha più il problema del dimensionamento, inoltre non c’è più bisogno di prevedere i problemi, ma è possibile concentrarsi solo dei servizi da fornire e della loro qualità.
Per poter avere del Software as a Service, il software deve avere particolari requisiti che lo abilitino all’uso mediante cloud computing. In particolare, esso deve
essere modulare (e in questo settore lavorano molto le ontologie, in particolare i servizidi gestione delle ontologie a livello di piattaforma),
essere meno integrato rispetto ai software attuali,
separare dati e programmi.
Per quanto riguarda gli attuali software ERP, come SAP, e il loro uso su piattaforme cloud, è necessario che essi siano modulari. Per poterli rendere tali, bisogna suddividere il sistema in moduli in base ai servizi offerti (tra i quali anche il database) che si devono collegare alla
piattaforma messa a disposizione dal cloud computing. L’idea è quella di sostituire i processi di integrazione interni con processi di integrazione esterni: solo chi è capace di fare questo può proporsi come gestore del cloud. In questo modo il software perde valore, dando un impulso notevole allo sviluppo di software Open Source, perché tutto si trasforma nel servizio offerto dal cloud.
È infatti il software Open Source ad essere il miglior candidato di Software as a Service, poiché chi lo sviluppa può anche ignorare i problemi di integrazione con la piattaforma e anzi, è il gestore del cloud che deve occuparsi di questo aspetto. Più precisamente, lo sviluppo di software Open Source non si propone ad un vasto pubblico di utenti, ma può interagire con pochi fornitori di servizi di cloud computing che potranno poi vendere il software come servizio ad un pubblico più ampio.
Nell’idea di integrare i moduli, una parte importante è svolta dalle ontologie, perché da una parte garantiscono la continuità con l’esistente e dall’altra parte possono essere gestite dal fornitore del cloud.
UPS è il leader mondiale del trasporto pacchi.
Di seguito si offre una descrizione delle integrazioni tra i vari aspetti (collaborazione / organizzazione / sistemi).
Si sottolinea che, considerata la dimensione della compagnia, la natura del suo business e la quantità di tecnologie che essa adotta, una descrizione completa avrebbe superato di molto i limiti imposti a questa relazione; si cercherà quindi di fornire una panoramica degli aspetti principali.
Integrazioni
La prima integrazione tra facets di cui si può parlare è quella tra sistema e organizzazione. UPS è un’azienda enorme, ma ha avuto l’accortezza di concepire fin da subito la propria base di dati come un’entità centrale e monolitica. La facility del New Jersey – come naturalmente la sua gemella in Georgia – ospita una serie di database che contengono (tra le altre informazioni):
i dati per la gestione del personale;
i dati, aggiornati real-time, su magazzini e mezzi di trasporto in uso, distribuiti nella rete intermodale di trasporti;
le informazioni su aziende partner e i clienti (anche queste ultime aggiornate real-time, basandosi sulle informazioni provenienti dai terminali DIAD e dal sito internet);
i dati per la stesura del bilancio (stato patrimoniale, conto economico, ecc.).
Poichè l’azienda opera anche al di fuori degli Stati Uniti, alcuni aspetti sono stati distribuiti anche all’estero. Un esempio è la base di dati della gestione del personale, per sua natura integrata con i sistemi di analisi dell’andamento economico: i costi del personale e di esercizio sono salvati nei database nazionali, ma le informazioni sono periodicamente aggregate e convertite in valuta americana; eventuali attività anti-produttive sono identificate e risolte in tempi brevi. La necessità di automatizzare il rilevamento dei costi ha messo in condizione UPS di automatizzare alcuni processi, tra i quali la generazione delle buste paga.
E’ stata semi-automatizzata anche la gestione di turni e dei riposi : il personale è categorizzato nel database in base al tipo di ruolo, curriculum e alla regione geografica di appartenenza (si vedrà nel paragrafo successivo come questo rappresenti già materiale
per un ontologia); la richiesta di ferie – che va effettuata con molto anticipo – viene inserita in un software che sottopone ai capi dei settori l’approvazione del piano. Questo meccanismo, sulla carta assai efficiente, ha portato all’avvio di una class-action contro UPS da parte dei dipendenti, perché non è risultato in alcun modo “flessibile” nei confronti di persone improvvisamente soggette a impedimenti o disabilità).
I dati relativi ai magazzini e ai mezzi di trasporto sono il cuore dell’attività di UPS, che non producendo beni vive dell’efficienza dei propri servizi. Tutti i software sono stati realizzati dalla ditta stessa nel corso delle ultime due decadi e sono altamente integrati : tutti fanno riferimento alla medesima base di dati e avviene un continuo flusso di informazioni da e verso le applicazioni.
Per esempio, alla richiesta di spedizione di un pacco da parte di un cliente vengono inserite – ex novo o come aggiornamento – le sue informazioni (specialmente i riferimenti per il pagamento, validati tramite i servizi di interfacciamento con i sistemi interbancari).Vengono inoltre creati i record con tutti i dati del pacco (luogo di ritiro e di consegna, eventuale luogo alternativo in caso di mancato ritiro, costo di spedizione calcolato in automatico e accettato dal cliente, ecc.). L’accredito è generato istantaneamente alla ricezione da parte del sistema della conferma di consegna (giunta dal terminale DIAD).
La generazione dell’ordine innesca la creazione di un record anche nel sistema di gestione della spedizione, che comporta una notifica agli operatori coinvolti. Il sistema di supporto logistico di UPS si occupa di ottimizzare le spedizioni dei colli, sia in termini di percorso minimo effettuato dai furgoni che di colli trasportati dagli stessi, tenendo conto anche degli operatori disponibili sulla base del già citato scheduling di ferie e riposi. Sono tutti esempi dell’alto livello di integrazione raggiunto dai sistemi della compagnia.
Come già evidenziato nel documento precedente, e come emerge da quanto detto finora sui flussi di dati dalle nazioni esterne verso il database centrale, avviene una grossa attività di warehousing. UPS ha un database di svariati terabytes che ospita la operations information library (OIL), una enorme collezione di dati, strutturati a diversi livelli di granularità, che riassume le attività del gruppo. OIL nasce inizialmente al fine di migliorare l’organizzazione interna sul suolo americano e per pianificare strategie nel breve periodo, ma a partire dal 1999 ingloba tutte le informazioni sull’attività planetaria e solo dai primi anni del 2000 viene sfruttata per l’integrazione dei software di intelligence e online analytical processing.
I dati aggregati vengono consultabili dal management dell’organizzazione; come detto nell’altro documento, molti dati di granularità molto fine sono resi accessibili tramite API anche dai clienti, ad esempio le informazioni sullo stato del singolo oggetto spedito. I clienti stessi possono integrare nei loro sistemi queste informazioni, in maniera assai agevole grazie alla sistematica adozione di UPS di standard aperti.
Come descritto nell’altro documento, in UPS esiste una commissione che si occupa di intraprendere innovazioni tecnologiche, raccogliendo i suggerimenti dei dipendenti. Le idee vengono sottomesse tramite un applicativo via web, utilizzabile attraverso la intranet della compagnia.
Un’ontologia per l’integrazione
Nell’ipotizzare un’ontologia dietro alle integrazioni di UPS, si può partire sicuramente dagli attori coinvolti in quello che è il suo core business: il trasporto pacchi. Dunque, si ha una classe Pacco , trasportata da una Locazione ad un’altra; il trasporto può essere concettualizzato con due relazioni “trasportoDa” e “trasportoA”, se si esclude dalla
modellazione le consegne transnazionali e multimodali. Pacco può avere più sottoclassi specializzate – in funzione delle sue caratteristiche – e deve possedere una Locazione istantanea, a seguito della geolocalizzazione.
Il pacco viene di norma spedito da un Cliente; considerando la vastità della offerta di servizi di UPS – che non prevede il solo trasporto di colli – una grande attenzione dev’essere riposta alla descrizione di classi derivate e attributi. Qualunque servizio offerto, di qualsiasi natura, prevede la “effettuazione” di un Ordine di vario tipo, come ad esempio una Spedizione.
Può capitare che un cliente risulti essere anche un Fornitore. L’ontologia potrebbe definire una super-classe di aggregazione AziendaPartner se riconosce che si tratta contemporaneamente di una ditta di tipo Cliente e Fornitore, ovvero se ha effettuato almeno una fornitura e almeno un’ordine.
Big Brown, come è chiamata in gergo UPS, è composta sopratutto di entità Dipendente organizzate in una struttura gerarchica (Organigramma) vasta e variegata. Anche quì lastrutturazione dev’essere accurata, con particolare enfasi sugli aspetti legati allo spazio/tempo: un lavoratore opererà in una precisa Regione, ovvero un’aggregazione di locazioni del network mondiale, coprirà un preciso Orario nell’arco della sua SettimanaLavorativa e così via. Un’ontologia di questo tipo renderebbe molto semplice effettuare inferenze automatiche nella generazione dei turni di riposo. Modellando adeguatamente alcuni attributi come qualifiche, titoli, stato di servizio e anni di anzianità, si da al management la possibilità di valutare quantitativamente – oltre che qualitativamente – il rendimento dello staff.
Molti di questi dati sono già presenti nei sistemi legacy di UPS, depositati all’interno dei database introdotti nelle ultime due decadi. Altri possono emergere da opportune “viste” sui db o attraverso attività di data mining.
#1 database Oracle come Remote DBA Oracle
Remote DBA Experts | Remote DBA Services | Remote Database Administrator | Remote DBA | Stefano Fantin

– Remote DBA Oracle 8i : webDB, outline, DBMS_REPAIR, logMiner, DROP column, LMT, TRIM function, MERGE partitions, HASH and COMPOSITE partitions
– Remote DBA Oracle 9i : fast-start time-based recovery limit, Flashback Query, Resumable Space Allocation, Trial Recovery, Data Guard, online index rebuild,  Online table redefinitions,SPFILE, External Tables, ASSM, Oracle RAC, OMF
– Remote DBA Oracle 10g : Data Pump, AWR, ASH, ADDM, SQL Tuning Advisor, Oracle scheduler, Segment Shrink, Segment Advisor, BFT, Flash Recovery Area
– Remote DBA Oracle 11g : DNFS, Online Patching, ASM Fast Mirror Resync, md_backup, md_restore, AWR baseline template, File Watcher, AMM, INCREMENTAL and PENDING statistics, Interval Partitioning
– Remote DBA Database Oracle 12c : multitenant Container DataBase, CDB, PDB, ADO, Heat MAp, PGA Size Limit, DBMS_QOPATCH, Automatic Big Table Caching, In- Memory (IM) Column Store
Consulenza database Oracle:
– performance tuning : miglioramenti delle performance del database Oracle, elasticità:futura riduzione del rischio di basse performance,
scalabilità verticale o scalabilità orizzontale per progetti big data con database Oracle
– analisi database e design database
– backup DBA
– sicurezza del database Oracle : analisi delle vulnerabilità, conformità dei report di auditing
– monitoring database Oracle
Oracle Features Implementation:
– ASM (Automatic Storage Management)
– RMAN (Recovery Manager)
– TDE (Transparent Data Encryption)
– SPM (Sql Plan Management)
– Online Redefinition
– Partitioning
– Compression
– Resource Manager
– Flashback
– Streams
– Real Application Testing
– Gateway
– Advanced Security
– Secure Backup

#2 database Postgresql come Remote DBA Postgresql
Remote DBA Experts | Remote DBA Services | Remote Database Administrator | Remote DBA | Stefano Fantin

Remote DBA Postgresql 8.0 : PITR, Tablespace, Windows Support, Savepoints
Remote DBA Postgresql 8.1  : Table partioning, Bitmap scans, Two-Phase commits, autovacuum
Remote DBA Postgresql 8.2 : Warm Standby, SQL 2003, Concurrent Index Builds, Gin indexes
Remote DBA Postgresql 8.3 : Hot updates, Asynchronous commit, XML, Fulltext search, Distribuited checkpoints
Remote DBA Postgresql 8.4 : Windows functions, CTEs, Database collations, Per-Column permission
Remote DBA Postgresql 9.0 : Hot Standby, Streaming Replication, Column Triggers, Conditional Triggers, hstore
Remote DBA Postgresql 9.1  : Synchronous Replication, Writable CTEs, Extension, Foreign Data Wrappers, Unlogged tables, Serialisable Snapshot Isolation, Column collations
Remote DBA Postgresql 9.2 : Cascading Replication, Index-Only scans, pg_stat_statements, Json, Ranges
Remote DBA Postgresql 9.3 : Writable Foreign Data Wrappers, Materialised Views, JSON functions and operators, LATERAL
Remote DBA Postgresql 9.4 : Logical replication, Replication slots, JSONB –> GIN (Generalized Inverted Index), scalability : Logical Decoding
Remote DBA Postgresql 9.5 : UPSERT, Row-level security, functionality for Big Data: BRIN index, algorithm called “keys abbreviated”,CUBE, ROLLUP, and GROUPING SET, TABLESAMPLE, Foreign Data Wrappers (FDW)
Remote DBA Postgresql 9.6 : Scalabilità verticale tramite query parallele, Scalabilità orizzontale tramite replica sincrona e ‘postgres_fdw’, Miglior ricerca testuale con le frasi. Parallel Query : Parallel sequential scans, parallel joins, parallel aggregates.
Transactions, VACUUM and the Visibility Map : pg_visibility extension for examining visibility maps, Frozen page data in visibility map for skipping vacuum on already-frozen data, User-defined expiration of snapshots to control table bloat. Performance and Monitoring :
Detailed wait information in pg_stat_activity, Index-only scans for partial indexes, Performance improvements for external sort operations. System Views and Administration : New system view pg_config, pg_blocking_pids, Functions pg_get_* to return NULL on invalid
objects, pg_notification_queue_usage to look at notify queue. Backups : pg_basebackup extended with replication slots, New API for hot physical backups. Other Features: Command progress reporting, Generic WAL facility, Trigonometric functions in degrees.