Intelligenza Artificiale e Data Science: senza le infrastrutture sottostanti non si va lontano

La grande e rapida evoluzione dell’Intelligenza Artificiale degli ultimi anni ha contribuito alla trasformazione tecnologica anche delle infrastrutture di supporto (in particolare server e storage) oggi in grado di supportare un ventaglio sempre più ampio di attività e processi di business. La risposta di Ibm e Mauden

Pubblicato il 29 Dic 2017

La trasformazione digitale dell'Inail con Dynatrace

Secondo le stime di Gartner, l’Intelligenza Artificiale è diventata un driver critico per le soluzioni “best-in-class” di predictive analytics e per il decision making.
Artificial Intelligence, Advanced Machine Learning e Data Science saranno secondo la società di analisi americana le principali tecnologie in grado di supportare i business delle aziende dal 2017 in poi, complici anche la sempre più ampia disponibilità di dati e la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics sorretti da storage di nuova generazione).
Nel panorama tecnologico attuale, la maggior parte degli algoritmi di Artificial Intelligence ha bisogno di enormi quantità di dati e di potenza di calcolo per poter funzionare. Ecco allora che l’AI riaccende i riflettori sulle tre componenti tecnologiche principali dell’IT:

Avvantaggiato chi ha già investito sulla modernizzazione di server e storage

A stabilire definitivamente l’importanza degli investimenti infrastrutturali a sostegno di progetti di Intelligenza Artificiale è una recente analisi di McKinsey Global Institute [condotta su oltre 200 realtà aziendali in Usa ed Europa, operative in 15 settori industriali, correlando il “tradizionale” Digital Index di McKinsey – l’indice di utilizzo e sviluppo delle tecnologie digitali – con il più attuale AI index, l’indice sviluppato ad hoc dalla società di analisi e consulenza per monitorare gli investimenti e i livelli di utilizzo dell’Intelligenza Artificiale da parte delle aziende utenti – ndr].

Stando ai risultati di questa ricerca, l’adozione delle tecnologie e delle soluzioni legate al mondo dell’Intelligenza Artificiale è maggiore e decisamente più frequente in tutte le realtà dove, in passato, si erano già fatti investimenti infrastrutturali, soprattutto nell’ambito delle cloud-based architecture, delle infrastrutture iperconvergenti e dei sistemi ingegnerizzati (soprattutto quelli nati e sviluppati appositamente per l’analisi in real-time dei Big Data).

Le nuove architetture “ready for AI”

Se guardiamo alla potenza di calcolo, i processori, le architetture e le piattaforme tradizionali richiedono ancora molto tempo (in alcuni casi si parla addirittura di settimane) per calcolare, a titolo di esempio, l’ampio ventaglio di opzioni che si prospettano nel funzionamento di una rete neurale (Deep Learning algorithm).

L’ideale, suggeriscono per esempio gli esperti di Gartner, è modellare delle infrastrutture ibride ed eterogenee dove i processori core si integrano con “acceleratori” ad hoc ottimizzati per i carichi generati dagli algoritmi e dai processi di Intelligenza Artificiale “compute intensive”.

La tecnologia tutto sommato ha però già dato alcune interessanti risposte a questa criticità come quelle che arrivano dalle nuove piattaforme e architetture ottimizzate per l’AI (come per esempio i nuovi server Power Systems di IBM – che integrano il nuovo processore POWER9 – creati specificamente per workload computazionali complessi di Artificial Intelligence).

Guardando poi allo storage, Deep Learning e applicazioni di AI richiedono ampi volumi di dati per “formare”, testare e validare gli algoritmi delle reti neurali, situazione che per gli amministratori dei data center può sollevare qualche criticità. A detta degli analisti di Gartner quello dello storage a supporto dell’Intelligenza Artificiale è forse l’ambito attualmente più critico dove vedremo le tecnologie maturare di pari passo con l’AI stessa e dove potranno trarre maggior beneficio vendor e partner che coniugano nella loro offerta sia la componente infrastrutturale sia quella applicativa specifica dell’Intelligenza Artificiale.

Il binomio IBM-Mauden per le nuove infrastrutture critiche

Gestire le infrastrutture critiche per la nuova era del Dato richiede non solo tecnologie, ma anche competenze specifiche, in grado di sviluppare soluzioni che garantiscano la continuità operativa, le analytics in tempo reale e che tutelino l’integrità dei dati, così come richiedono le normative.
Mauden, Business Partner Platinum di IBM, nei suoi 30 anni di storia ha sviluppato queste competenze e le mette al servizio dei suoi clienti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2