
DLI
Skip available courses





































































Available courses

Il corso fornisce una panoramica sul mondo dell’intelligenza artificiale generativa, partendo da concetti più teorici e poi arrivando a descrivere alcuni degli approcci pratici per realizzare delle applicazioni. Pensato per chiunque abbia un background di programmazione in python, i video
contengono esempi di codice per implementare semplici applicazioni basate su Foundation Models.

Il corso si pone l’obiettivo di introdurre le/i partecipanti al mondo della cybersecurity, fornendo una panoramica generale del mondo della sicurezza digitale, delle tipologie di attacco e degli strumenti di difesa. Il corso mostra come l’aumento e l’evoluzione degli attacchi cyber mettano a repentaglio la nostra sicurezza e fornisce una guida per orientarsi nel mondo della cybersecurity, acquisendo consapevolezza dei rischi a cui siamo esposti e degli strumenti che possiamo utilizzare per contrastarli.

Il corso si pone l’obiettivo di introdurre le/i partecipanti al mondo della cybersecurity, fornendo una panoramica generale del mondo della sicurezza digitale, delle tipologie di attacco e degli strumenti di difesa. Il corso mostra come l’aumento e l’evoluzione degli attacchi cyber mettano a repentaglio la nostra sicurezza e fornisce una guida per orientarsi nel mondo della cybersecurity, acquisendo consapevolezza dei rischi a cui siamo esposti e degli strumenti che possiamo utilizzare per contrastarli.

Questo corso esplora la crittografia e la tecnologia blockchain, fornendo una solida base per comprendere entrambe le discipline. Nella prima parte del corso, vengono introdotti i concetti fondamentali della crittografia, mentre la seconda parte del corso si concentra sulla blockchain, le sue proprietà principali e gli algoritmi di consenso.

Il corso "Rischio Cyber e Sua Gestione", della durata di due ore, offre una panoramica comprensiva sulla definizione e gestione dei rischi nel contesto digitale. I partecipanti acquisiranno i fondamenti del risk management seguendo le linee guida delle normative ISO 31000 e ISO 27000. Sarà posta particolare attenzione sui metodi per la valutazione del rischio cyber, inclusi il metodo HTMA e il metodo FAIR, fornendo gli strumenti necessari per identificare e valutare efficacemente i rischi nell'ambiente cyber.

Il Corso di introduzione alla Protezione dei dati personali e al GDPR intende fornire i contenuti basilari per comprendere le nozioni principali, gli istituti di base e il modello di tutela introdotto dal GDPR. E’ un Corso di formazione di base, che tutti possono seguire, al fine di acquisire il lessico e l’impostazione necessaria per comprendere gli aspetti di fondo della disciplina vigente in materia di protezione dei dati personali (GDPR). Il Corso può rivelarsi molto utile per chi si avvicina alla materia e poi si trova già ad applicarla, o più spesso a vederla applicare, a livello pubblico o privato. Inoltre, il modello normativo del GDPR è la base per comprendere anche nuove discipline europee, come quella più recente in materia di Intelligenza artificiale o di Data governance.

Il corso di introduzione alle architetture cloud native si rivolge ad architetti, sviluppatori e manager che vogliano avere una panoramica, estesa e completa, rispetto alle architetture software moderne, ai microservizi e a tutte quelle tecniche relative allo sviluppo software secondo le caratteristiche dei framework contemporanei. I temi trattati includono le tecnologie coinvolte, la gestione e le problematiche (incluse le mitigation) relative alle architetture cloud native. Viene inoltre trattato il tema della modernizzazione delle applicazioni esistenti
Il Corso ha un format altamente innovativo che fornisce le competenze generali sulla Blockchain e sulle nuove tecnologie, per comprenderne l’impatto rivoluzionario su tutti i settori del mercato, sull’ecosistema economico-finanziario, sulle professioni, la società e la Governance.
Blockchain fast Track ha lo scopo di trasmettere in modo corretto e diretto i concetti fondamentali per capire la Blockchain, le sue potenzialità, i suoi limiti, le sue applicazioni, con un occhio di riguardo all’integrazione con l’AI ed il ML.
La Data Visualization permette di comprendere, a colpo d’occhio, grandi quantità di dati nel loro insieme, intuire pattern e identificare trend. Il corso introduce caratteristiche e obiettivi della BI, un insieme di processi e tecnologie per archiviare, trasformare, modellare e visualizzare i dati, al fine di renderli fruibili all’utente finale.
Il corso offre una panoramica delle funzionalità di AI integrate e disponibili tramite piattaforme specializzate e sulle corrette modalità per l’utilizzo condiviso e distribuito degli elaborati prodotti con Power BI. Inoltre, illustra le funzionalità avanzate di Power BI nell’ambito dell’AI e dei servizi cloud.
Questo corso di computer vision hands-on è pensato per lo studio di applicazioni pronte a essere messe in produzione. Inizieremo con un approccio top-down, partendo perciò dalla parte più teorica per arrivare a costruire un codice funzionante che implementi il modello con l’uso di TensorFlow tra librerie più utilizzate per il DL.
In questo modulo introduttivo le tratteremo partendo da zero e cercando di dare concretezza ai concetti di matematica applicata, Machine Learning e Deep Learning, senza inerpicarsi negli sviluppi più elevati ma offrendo gli strumenti fondamentali per comprendere le tecniche di Deep Learning che ne fanno uso.
In questo modulo offriamo le basi della programmazione utilizzando il linguaggio Python: partiremo da zero giungendo a parlare anche di classi e oggetti e descrivendo al tempo stesso le tecniche fondamentali di programmazione e gli aspetti principali e imprescindibili del linguaggio Python.
Il corso Data Driven Marketing analizza il percorso per progettare una Strategia Data Driven e multicanale: Obiettivi, Dati, Analisi e Azione, approfondendo la conoscenza del processo di Profilazione mirata dei clienti e le principali tecniche di Segmentazione, dalle tradizionali a quelle basate su algoritmi di Apprendimento automatico.

Il corso di Deep Learning per l’analisi delle immagini mediche ha l’obiettivo di trasmettere i concetti base dell’analisi delle immagini tramite deep learning grazie a lezioni teoriche e pratiche, con esempi di codici su Google Colab. Sono affrontate tematiche quali le potenzialità, i limiti e gli aspetti etici del DL nel campo in esame.
Senza una comprensione profonda si rimane in superficie. Tuttavia in superficie prima o poi si affonda. Per tale motivo, in questo corso capiremo e costruiremo da zero una convoluzione, un layer convoluzionale e infine un intero modello e il suo addestramento. Inizieremo con un approccio minimalista, usando solo librerie standard di Python come NumPy, attraverso cui scriveremo backpropagation e discesa del gradiente in maniera chiara e cristallina. Solo successivamente impareremo e faremo uso di PyTorch, una delle librerie più utilizzate per il Deep Learning. Dopo una breve introduzione alla Teoria dell’Informazione Classica, costruiremo dunque una rete più sofisticata per la classificazione di immagini. Un problema semplice di cui però comprenderemo ogni singolo dettaglio. Addestreremo poi questa rete neurale, imparando a controllare l’overfitting con diverse tecniche, ognuna delle quali sarà analizzata lasciando fuori ogni dubbio. Passeremo poi ad ottimizzare gli iperparametri e a cross-validare il nostro modello come un progetto completo richiede di fare. Il corso è rivolto a chi vuole capire in dettaglio i meccanismi che stanno alla base dei moderni algoritmi di deep learning per la Computer Vision, per chi vuole imparare a costruirsi la propria rete o modificarne una già esistente. Il corso è un primo passo verso corsi più avanzati e reti neurali più sofisticate che sono utilizzate per la risoluzione di problemi concreti.
Questo corso introduce i principali approcci del Deep Learning basati su reti neurali profonde per l’analisi di sequenze di dati e di serie temporali. È pensato come un corso di base per imparare a progettare, sviluppare e validare reti neurali dinamiche per affrontare problemi che riguardano sequenze di dati.

I contenuti del per/corso sono trasversali, infatti è rivolto agli imprenditori e agli studenti di discipline scientifiche, sociologiche ed economiche, ma anche umanistiche. Il corso è sviluppato per dare la corretta consapevolezza di come transizione digitale delle aziende e della società non è solo un fatto tecnico, ma culturale.

Il corso di “Fondamenti di Machine Learning” mira a trasferire i principali contenuti teorici e pratici di questa disciplina relativamente giovane, ma in costante e rapida evoluzione. Il corso è strutturato in maniera bottom-up, partendo da esempi pratici e motivanti, e aggiungendo complessità con l’avanzare del corso.

In questa serie di mini degree impariamo le basi del Reinforcement Learning, ovvero le tecniche che permettono alle macchine di imparare a prendere decisioni. Queste tecniche sono tanto potenti quanto naturali – non a caso sono nate più di 100 anni fa nell’ambito della psicologia!
Il corso ha l’obiettivo di fornire una comprensione del reale con la definizione di nuovi approcci interpretativi e metodologici anche nella gestione degli scenari socio-economico e culturali emergenti. Impareremo il concetto di transizione digitale secondo le categorie di dipendenza, cura e solidarietà, le problematiche sociali, legali ed etiche.
Nel corso tratteremo le tematiche per valutare le implicazioni dell’Intelligenza Artificiale in materia autorale e brevettuale, provando a definire cosa effettivamente sia l’intelligenza artificiale, e cercando di isolarne le singole componenti.
Il corso offre una introduzione alle questioni riguardanti controllo, sorveglianza e profilazione nell’AI al fine di analizzare, secondo la prospettiva giuridica, i problemi della protezione dei dati e dei big data. In aggiunta a questo, il corso sviluppa anche un focus sulla sicurezza informativa e giuridica.

Molte volte, quando si lavora con i dati, la nostra attenzione si focalizza sul modo più efficiente di recuperare, processare, ed analizzare i dati. Per quanto queste operazioni siano assolutamente vitali, spesso capita di trascurare un altro aspetto ugualmente importante: la visualizzazione dati.
Il modo in cui gli esseri umani processano le informazioni obbedisce a regole ben precise, tanto è vero che un’immagine o un grafico sbagliati non solo hanno il potere di rendere più difficile la comprensione della vostra analisi, ma addirittura di invalidare le vostre osservazioni! Il modo in cui si visualizzano i dati è importante tanto quanto i dati che vengono visualizzati.
Il corso si propone di andare ad esplorare i concetti base della visualizzazione dati, andando ad esplorare come funziona la visualizzazione dati, imparando alcune regole base del design come la teoria dei colori e la percezione visuale, così come comunicare le vostre osservazioni in maniera chiara e precisa.
Nel corso si affrontano i temi di etica connessi all’utilizzo di sistemi intelligenti sia per assumere decisioni giudiziarie sia per l’utilizzo di tools da parte di avvocati e operatori del sistema, con attenzione alle normative nazionali, europee e internazionali in materia di privacy e di gestione dei dati in ambito I.A.

Questo corso introduce le funzionalità del servizio Amazon SageMaker. Andremo a illustrare tutte le fasi di un processo di Machine Learning, dall’analisi e visualizzazione fino alla preparazione dei dati, con particolare enfasi sugli aspetti pratici relativi alla creazione, addestramento ed ottimizzazione del modello ed alle diverse modalità di deploy di una soluzione, arrivando a parlare dell’autocaling e del come è possibile condurre un test a/b.

Il corso coprirà gli elementi di base per l’utilizzo di KNIME Analytics Platform e di machine learning, con una breve introduzione al deep learning. Per le features più avanzate del tool, e per le basi teoriche degli algoritmi di machine learning, rimandiamo ad altri corsi.
Questo corso copre le basi teoriche per diverse tecniche associate a modelli di apprendimento automatico supervisionato. Inoltre, definisce un caso di studio aziendale per guidare i partecipanti attraverso tutte le fasi del ciclo di vita analitico, dalla comprensione del problema all’implementazione del modello.
Questo corso copre le basi teoriche per diverse tecniche associate a modelli di apprendimento automatico supervisionato. Inoltre, definisce un caso di studio aziendale per guidare i partecipanti attraverso tutte le fasi del ciclo di vita analitico, dalla comprensione del problema all’implementazione del modello.
In questo corso si introducono gli elementi dell’algebra lineare, del calcolo differenziale multivariato e della teoria dell’ottimizzazione su essi basata, che sono necessari al ML e al DL. Dopo una introduzione alla teoria degli spazi vettoriali reali e degli operatori lineari, si affronteranno la teoria spettrale e le sue applicazioni al calcolo scientifico.
Il corso si compone di quattro moduli, il primo dei quali fornisce una breve introduzione al DL e al framework Pytorch che verrà utilizzato durante tutte le lezioni pratiche. I successivi tre moduli sono dedicati al Variational AutoEncoders (VAEs), Restricted Boltzmann Machines (RBMs) e Generative Adversarial Networks.
Il corso è ideato per dare un’overview delle potenzialità del Natural Language Processing nella risoluzione di problemi reali. Il caso di studio è il Question Answering, che al suo interno comprende una parte molto approfondita di Reading Comprehension. Affronteremo l’argomento sia da un punto di vista estrattivo che da un punto di vista generativo, in modo da esplorare quali sono le varie possibilità per generare differenti user experience in fase di produzione. In questo corso lavoreremo sia a basso livello, andando dentro al codice principale del modello BERT, sia un pò più ad alto livello usando HuggingFace come risorsa principale per l’investigazione e la ricerca dei modelli da mettere nelle nostre pipelines. Inoltre per avere anche un’idea delle alternative ad HuggingFace, esploreremo risorse come Tensorflow Hub e Spacy, in modo da poter avere più strumenti a disposizione alla fine di questo corso per la creazione di prototipi funzionanti.
Il corso NLP Hands-On 2 è stato pensato con l’idea di fornire allo studente sia conoscenze pratiche, per un uso immediato sul campo, che strumenti in grado di aiutare nel processo di astrazione dei problemi da risolvere.
Nel corso NLP Hands-On 3 impareremo a capire i transformer networks per un uso pratico e con un occhio di riguardo alle risorse necessarie per addestrarli. Analizzeremo che cosa effettivamente impara un transformer e quali giovamenti ne possiamo trarre, imparando a creare una knowledge base fino allo studio della Summarization.
Nel corso NLP Hands-On 4 affronteremo l’argomento dei conversational engines da un punto di vista più operativo che teorico. Inizieremo ad addentrarci nell’argomento partendo dalla libreria Rasa, per spostarci poi in Cloud, DialogFlow, ossia web platform ed SDK python, fino al il dialog model (ParlAI e Facebook Research).
Nel corso si affrontano i concetti base del quantum computing con approccio teorico e pratico. Il corso è suddiviso in tre parti: nella prima sono descritte le differenze tra informatica classica e quantistica, nella seconda i concetti chiave del quantum computing, e nella terza sono descritti e implementati alcuni algoritmi quantistici.
Il corso di QML è ideato per dare una overview pragmatica su questa emergente branca della Computer Science. Partiremo introducendo in modo generale i concetti fondativi di questo ambito di ricerca fino agli esempi di supervised e unsupervised learning, feature selection e imaging, il tutto usando la piattaforma D-Wave Leap.
Questo mini degree prosegue il discorso iniziato con “Fondamenti di Reinforcement Learning” senza soluzione di continuità (le lezioni partono infatti dalla 4). Lo studente che volesse cominciare con questo mini degree deve studiare autonomamente i primi quattro capitoli del libro di testo “Reinforcement Learning” di Sutton e Barto.
Il corso approfondisce i modelli basati sugli Alberi Decisionali. La prima parte si focalizzerà sul modello matematico di base, la seconda parte tratterà le tipologie di modelli più complessi partendo dal Bagging (Boostrap AGGRegating) e la terza i modelli di Gradient Boosting che utilizzano come base learner i Decision Tree.

L’obiettivo del corso è fornire uno strumento di apprendimento senza usare una riga di codice di programmazione, andando ad esplorare la parte nozionistica del mondo del machine learning, come scienza dei dati, discesa del gradiente, sovra adattamento, validazione incrociata fino al modello di regressione lineare.
Il corso ha l’obiettivo di fornire una definizione e, dunque, una descrizione di Intelligenza Artificiale e robotica per poi analizzare le implicazioni etiche e sociali dell’introduzione della robotica e dell’AI nella società contemporanea.
Questo corso, rivolto a tutti coloro che si approcciano per la prima volta alla Data Visualization, ha l'obiettivo di fornire le basi fondamentali utilizzando lo strumento Tableau Desktop. Alla fine del corso sarai in grado di utilizzare le funzionalità principali dello strumento, necessarie a creare reportistiche complete e facili da navigare.
Questo corso ha lo scopo di introdurre i partecipanti alla bioinformatica, una area interdisciplinare che interseca la biologia e la genomica con le scienze dell’informazione, la statistica e la matematica per usare e costruire strumenti e metodi computazionali allo scopo di rispondere a domande fondamentali della biologia.

Il corso, dedicato alla conoscenza degli obiettivi della trasformazione digitale della PA, si articola su tre livelli fornendo successivi gradi di approfondimento.
Nel primo (base), dopo una premessa sugli obiettivi, i vantaggi e i principali attori istituzionali coinvolti nel processo di transizione digitale della PA e le relative fonti normative, vengono illustrati i diritti di cittadinanza digitale e le relative tutele; un focus è dedicato alla innovativa figura del Responsabile per la transizione digitale (RTD) e alla Conferenza dei Responsabili.
Nel secondo (intermedio) vene illustrata la strategia e i principi guida per la trasformazione digitale e le necessarie competenze del personale dipendente per il raggiungimento dell’obiettivo stesso con focus su Syllabus e Rapporto DESI (Digital Economy and Society Index).
Nel terzo (avanzato), si approfondiscono i ruoli degli attori istituzionali della governance digitale, le relative fonti normative e l’influenza della strategia digitale sugli scenari di cambiamento della PA; vengono poi enumerati gli obiettivi di Italia digitale 2026. Un focus è dedicato alle interrelazioni del RTD con uffici e soggetti preposti alla governante digitale e un altro focus approfondisce i requisiti del modello strategico di evoluzione del sistema informativo della PA (Data center, Cloud, Connettività, Infrastrutture, Sicurezza e vantaggi offerti dal DAF (Data & Analytics Framework).
Attuari e Intelligenza Artificiale: Analisi e stima dei sinistri con l’utilizzo dei Machine Learning

Questo corso, rivolto a tutti coloro che si approcciano per la prima volta alla Data Visualization, ha l'obiettivo di fornire le basi fondamentali utilizzando lo strumento Tableau Desktop. Alla fine del corso sarai in grado di utilizzare le funzionalità principali dello strumento, necessarie a creare reportistiche complete e facili da navigare.
Il corso di QML è ideato per dare una overview pragmatica su questa emergente branca della Computer Science. Partiremo introducendo in modo generale i concetti fondativi di questo ambito di ricerca fino agli esempi di supervised e unsupervised learning, feature selection e imaging, il tutto usando la piattaforma D-Wave Leap.
Nel corso si affrontano i concetti base del quantum computing con approccio teorico e pratico. Il corso è suddiviso in tre parti: nella prima sono descritte le differenze tra informatica classica e quantistica, nella seconda i concetti chiave del quantum computing, e nella terza sono descritti e implementati alcuni algoritmi quantistici.
Il corso ha l’obiettivo di fornire una comprensione del reale con la definizione di nuovi approcci interpretativi e metodologici anche nella gestione degli scenari socio-economico e culturali emergenti. Impareremo il concetto di transizione digitale secondo le categorie di dipendenza, cura e solidarietà, le problematiche sociali, legali ed etiche.
Questo corso introduce i principali approcci del Deep Learning basati su reti neurali profonde per l’analisi di sequenze di dati e di serie temporali. È pensato come un corso di base per imparare a progettare, sviluppare e validare reti neurali dinamiche per affrontare problemi che riguardano sequenze di dati.
Questo corso di computer vision hands-on è pensato per lo studio di applicazioni pronte a essere messe in produzione. Inizieremo con un approccio top-down, partendo perciò dalla parte più teorica per arrivare a costruire un codice funzionante che implementi il modello con l’uso di TensorFlow tra librerie più utilizzate per il DL.
Senza una comprensione profonda si rimane in superficie. Tuttavia in superficie prima o poi si affonda. Per tale motivo, in questo corso capiremo e costruiremo da zero una convoluzione, un layer convoluzionale e infine un intero modello e il suo addestramento. Inizieremo con un approccio minimalista, usando solo librerie standard di Python come NumPy, attraverso cui scriveremo backpropagation e discesa del gradiente in maniera chiara e cristallina. Solo successivamente impareremo e faremo uso di PyTorch, una delle librerie più utilizzate per il Deep Learning. Dopo una breve introduzione alla Teoria dell’Informazione Classica, costruiremo dunque una rete più sofisticata per la classificazione di immagini. Un problema semplice di cui però comprenderemo ogni singolo dettaglio. Addestreremo poi questa rete neurale, imparando a controllare l’overfitting con diverse tecniche, ognuna delle quali sarà analizzata lasciando fuori ogni dubbio. Passeremo poi ad ottimizzare gli iperparametri e a cross-validare il nostro modello come un progetto completo richiede di fare. Il corso è rivolto a chi vuole capire in dettaglio i meccanismi che stanno alla base dei moderni algoritmi di deep learning per la Computer Vision, per chi vuole imparare a costruirsi la propria rete o modificarne una già esistente. Il corso è un primo passo verso corsi più avanzati e reti neurali più sofisticate che sono utilizzate per la risoluzione di problemi concreti.

Il corso ha l’obiettivo di fornire una definizione e, dunque, una descrizione di Intelligenza Artificiale e robotica per poi analizzare le implicazioni etiche e sociali dell’introduzione della robotica e dell’AI nella società contemporanea.

Il corso coprirà gli elementi di base per l’utilizzo di KNIME Analytics Platform e di machine learning, con una breve introduzione al deep learning. Per le features più avanzate del tool, e per le basi teoriche degli algoritmi di machine learning, rimandiamo ad altri corsi.

Questo corso introduce i principali approcci del Deep Learning basati su reti neurali profonde per l’analisi di sequenze di dati e di serie temporali. È pensato come un corso di base per imparare a progettare, sviluppare e validare reti neurali dinamiche per affrontare problemi che riguardano sequenze di dati.

Senza una comprensione profonda si rimane in superficie. Tuttavia in superficie prima o poi si affonda. Per tale motivo, in questo corso capiremo e costruiremo da zero una convoluzione, un layer convoluzionale e infine un intero modello e il suo addestramento. Inizieremo con un approccio minimalista, usando solo librerie standard di Python come NumPy, attraverso cui scriveremo backpropagation e discesa del gradiente in maniera chiara e cristallina. Solo successivamente impareremo e faremo uso di PyTorch, una delle librerie più utilizzate per il Deep Learning. Dopo una breve introduzione alla Teoria dell’Informazione Classica, costruiremo dunque una rete più sofisticata per la classificazione di immagini. Un problema semplice di cui però comprenderemo ogni singolo dettaglio. Addestreremo poi questa rete neurale, imparando a controllare l’overfitting con diverse tecniche, ognuna delle quali sarà analizzata lasciando fuori ogni dubbio. Passeremo poi ad ottimizzare gli iperparametri e a cross-validare il nostro modello come un progetto completo richiede di fare. Il corso è rivolto a chi vuole capire in dettaglio i meccanismi che stanno alla base dei moderni algoritmi di deep learning per la Computer Vision, per chi vuole imparare a costruirsi la propria rete o modificarne una già esistente. Il corso è un primo passo verso corsi più avanzati e reti neurali più sofisticate che sono utilizzate per la risoluzione di problemi concreti.

Il corso di QML è ideato per dare una overview pragmatica su questa emergente branca della Computer Science. Partiremo introducendo in modo generale i concetti fondativi di questo ambito di ricerca fino agli esempi di supervised e unsupervised learning, feature selection e imaging, il tutto usando la piattaforma D-Wave Leap.

L’obiettivo del corso è fornire uno strumento di apprendimento senza usare una riga di codice di programmazione, andando ad esplorare la parte nozionistica del mondo del machine learning, come scienza dei dati, discesa del gradiente, sovra adattamento, validazione incrociata fino al modello di regressione lineare.

Questo corso copre le basi teoriche per diverse tecniche associate a modelli di apprendimento automatico supervisionato. Inoltre, definisce un caso di studio aziendale per guidare i partecipanti attraverso tutte le fasi del ciclo di vita analitico, dalla comprensione del problema all’implementazione del modello.

Il corso di “Fondamenti di Machine Learning” mira a trasferire i principali contenuti teorici e pratici di questa disciplina relativamente giovane, ma in costante e rapida evoluzione. Il corso è strutturato in maniera bottom-up, partendo da esempi pratici e motivanti, e aggiungendo complessità con l’avanzare del corso.

I contenuti del per/corso sono trasversali, infatti è rivolto agli imprenditori e agli studenti di discipline scientifiche, sociologiche ed economiche, ma anche umanistiche. Il corso è sviluppato per dare la corretta consapevolezza di come transizione digitale delle aziende e della società non è solo un fatto tecnico, ma culturale.

Il corso è ideato per dare un’overview delle potenzialità del Natural Language Processing nella risoluzione di problemi reali. Il caso di studio è il Question Answering, che al suo interno comprende una parte molto approfondita di Reading Comprehension. Affronteremo l’argomento sia da un punto di vista estrattivo che da un punto di vista generativo, in modo da esplorare quali sono le varie possibilità per generare differenti user experience in fase di produzione. In questo corso lavoreremo sia a basso livello, andando dentro al codice principale del modello BERT, sia un pò più ad alto livello usando HuggingFace come risorsa principale per l’investigazione e la ricerca dei modelli da mettere nelle nostre pipelines. Inoltre per avere anche un’idea delle alternative ad HuggingFace, esploreremo risorse come Tensorflow Hub e Spacy, in modo da poter avere più strumenti a disposizione alla fine di questo corso per la creazione di prototipi funzionanti.

Il corso NLP Hands-On 2 è stato pensato con l’idea di fornire allo studente sia conoscenze pratiche, per un uso immediato sul campo, che strumenti in grado di aiutare nel processo di astrazione dei problemi da risolvere.

Molte volte, quando si lavora con i dati, la nostra attenzione si focalizza sul modo più efficiente di recuperare, processare, ed analizzare i dati. Per quanto queste operazioni siano assolutamente vitali, spesso capita di trascurare un altro aspetto ugualmente importante: la visualizzazione dati.
Il modo in cui gli esseri umani processano le informazioni obbedisce a regole ben precise, tanto è vero che un’immagine o un grafico sbagliati non solo hanno il potere di rendere più difficile la comprensione della vostra analisi, ma addirittura di invalidare le vostre osservazioni! Il modo in cui si visualizzano i dati è importante tanto quanto i dati che vengono visualizzati.
Il corso si propone di andare ad esplorare i concetti base della visualizzazione dati, andando ad esplorare come funziona la visualizzazione dati, imparando alcune regole base del design come la teoria dei colori e la percezione visuale, così come comunicare le vostre osservazioni in maniera chiara e precisa.

Il corso offre una panoramica delle funzionalità di AI integrate e disponibili tramite piattaforme specializzate e sulle corrette modalità per l’utilizzo condiviso e distribuito degli elaborati prodotti con Power BI. Inoltre, illustra le funzionalità avanzate di Power BI nell’ambito dell’AI e dei servizi cloud.

La Data Visualization permette di comprendere, a colpo d’occhio, grandi quantità di dati nel loro insieme, intuire pattern e identificare trend. Il corso introduce caratteristiche e obiettivi della BI, un insieme di processi e tecnologie per archiviare, trasformare, modellare e visualizzare i dati, al fine di renderli fruibili all’utente finale.

Questo corso di computer vision hands-on è pensato per lo studio di applicazioni pronte a essere messe in produzione. Inizieremo con un approccio top-down, partendo perciò dalla parte più teorica per arrivare a costruire un codice funzionante che implementi il modello con l’uso di TensorFlow tra librerie più utilizzate per il DL.

Questo corso, rivolto a tutti coloro che si approcciano per la prima volta alla Data Visualization, ha l'obiettivo di fornire le basi fondamentali utilizzando lo strumento Tableau Desktop. Alla fine del corso sarai in grado di utilizzare le funzionalità principali dello strumento, necessarie a creare reportistiche complete e facili da navigare.

Il corso Data Driven Marketing analizza il percorso per progettare una Strategia Data Driven e multicanale: Obiettivi, Dati, Analisi e Azione, approfondendo la conoscenza del processo di Profilazione mirata dei clienti e le principali tecniche di Segmentazione, dalle tradizionali a quelle basate su algoritmi di Apprendimento automatico.

Questo corso esplora la crittografia e la tecnologia blockchain, fornendo una solida base per comprendere entrambe le discipline. Nella prima parte del corso, vengono introdotti i concetti fondamentali della crittografia, mentre la seconda parte del corso si concentra sulla blockchain, le sue proprietà principali e gli algoritmi di consenso.