Eventi
05 dicembre 2024
Insights
È la classica telefonata del venerdì, cinque minuti prima della chiusura. Alzi la mano la software house o il consulente informatico di lungo corso che non ha dovuto affrontare - anche mille volte nella carriera - il terribile incubo della segnalazione last minute. «Perché non ricevo/non posso inviare le e-mail?« «Devo inviare urgentemente una fattura ma il sistema non mi risponde.» «Sono sicuro di aver archiviato i documenti dell’amministrazione, ma adesso la cartella è vuota. Salvatemi.»
Messa giù la cornetta, o gli auricolari del centralino, diventa tutta una corsa alle verifiche del caso: un controllo sul server SMTP, un ripasso, insieme al cliente, del manuale dell’applicazione, nelle situazioni più evolute il fornitore attiva un canale di accesso remoto e cerca di intervenire direttamente sulla macchina da cui è partita la segnalazione del guasto.
Nel frattempo il tecnico ha dovuto registrare qualche ora di costoso straordinario, forse addirittura un’uscita sul campo. Ma non finisce qui. Anche la pazienza del cliente è stata messa a dura prova e probabilmente inciderà - quando si tratterà di rinnovare il contratto - sui livelli di soddisfazione percepita. Perché, lo sanno tutti, il cliente ricorda perfettamente gli incidenti di percorso che gli sono capitati, scordandosi in fretta il buon servizio ricevuto.
Tutto questo senza contare il danno peggiore, il danno economico causato dalla sospensione di un servizio software da cui dipende la corretta esecuzione di un processo interno, o la felice conclusione di una transazione di acquisto. Internet, il mondo delle Web app, la crescente mobilità delle persone che dal loro smartphone si aspettano sempre tutto, hanno reso ancora più urgente il tema della qualità nell’erogazione di servizio informatico. Misurata attraverso l’intero tracciato della relazione di rete che unisce cliente e fornitore - o, come si dice end-to-end - la qualità deve essere molto elevata per sostenere business che dalle reti dipendono sempre di più. Che fare?
Posto che la “silver bullet”, la ricetta miracolosa, non è mai esistita, la risposta migliore alla domanda di qualità end-to-end risiede in una diffusa adozione dei modelli del cloud computing. Specie quando a facilitare l’adozione di questa innovativa modalità di “pensare” l’informatica è la competenza che un partner come Tinext MCS è in grado di mettere in campo. Pensiamo innanzitutto alla qualità complessiva percepita da una azienda che sul cloud implementa la propria strategia IT o che per le sue esigenze applicative e gestionali si serve di un fornitore indipendente, uno dei tanti operatori che fino all’avvento della cultura informatica “as a service”, vendevano le loro applicazioni, più o meno personalizzate, ai tradizionali ambienti di lavoro client/server.
Prima del cloud, la qualità percepita dipendeva da fattori che non erano sotto il diretto controllo dello sviluppatore di una applicazione. Un software gestionale poteva essere stato scritto con tutti i sacri crismi della perfezione ispirata alle teorie della programmazione strutturata, ma il suo funzionamento era legato alle configurazioni dei server del cliente, al costante aggiornamento del sistema operativo e delle release del o dei prodotti utilizzati. Circostanze che imponevano un carico di lavoro aggiuntivo agli utenti aziendali di una determinata soluzione e ai loro fornitori esterni. Con gran spreco di tempo e di risorse finanziarie.
Entrare nell’ottica architetturale e di servizio del cloud computing, consente di tenere ben separati gli aspetti funzionali, “soft” di una applicazione, in particolare di una Web app, dall’aspetto più infrastrutturale, “hard”: il tipo di dispositivo utilizzato, la versione del sistema operativo, gli aggiornamenti, le patch di sicurezza.
Mentre questo livello “hard” viene gestito con l’aiuto di una crescente dose di automazione, utenti e sviluppatori possono concentrarsi sull’eccellenza degli aspetti “soft”, facilitati da un ambiente IT flessibile ma ben controllato.
La famosa qualità complessiva aumenta, perché tutto, lato cliente e lato fornitore, funziona in modo più fluido e i momenti più critici - per esempio l’introduzione di una nuova release applicativa, o la riparazione di un problema - non comportano più la coda interminabile di interventi di “fine tuning” sul server privo di un importante pezzo di software, sul computer della segretaria che non riesce a eseguire correttamente il nuovo codice, eccetera, eccetera, eccetera.
La flessibilità del cloud ibrido è il presupposto ideale per una migliore qualità del servizio in senso più generale. Non è affatto un caso se oggi le soluzioni di business continuity e di disaster recovery, passano quasi sempre per un impiego sofisticato di data center fortemente virtualizzati e automatizzati o dall’interconnessione con una molteplicità di servizi di Infrastructure e Software as service che possono garantire altissime percentuali di disponibilità dei vari servizi e tempi di ripristino di dati, applicazioni e connettività molto più rapidi.
Anche quando è importante assicurare un buona qualità attraverso una gamma piuttosto ampia di tipologie di servizio, o di carichi di lavoro, il cloud computing può rivelarsi strategico, perché permette di differenziare le modalità di fruizione o di erogazione in base alle priorità.
Ne abbiamo già parlato, ma è importante ribadirlo: le esigenze di un business digitale devono adattarsi all’istante ai gusti degli utenti finali, alle opportunità di mercato e all’assalto della concorrenza. Solo in questo modo si può garantire qualità nel servizio, partendo nella nostra offerta di servizio dalla garanzia dei servizi di supporto e monitoraggio centralizzato che assicurano i massimi livelli di performance applicativa, sicurezza e disponibilità delle risorse, per arrivare fino a forme avanzate di virtualizzazione come i cosiddetti “container”: ambienti di esecuzione delle applicazioni che si spostano molto facilmente da una infrastruttura utilizzata per lo sviluppo a quella usata in produzione.