BERT: Pre-training of Deep Bidirectional Transformers for Language Understandinggohyunwoong
This presentation is for SotA models in NLP called Transformer & BERT review materials. I reviewed many model in here Word2Vec, ELMo, GPT, ... etc
reference 1 : Kim Dong Ha (https://www.youtube.com/watch?v=xhY7m8QVKjo)
reference 2 : Raimi Karim (https://towardsdatascience.com/attn-illustrated-attention-5ec4ad276ee3)
How to install text to image Stable Diffusion Automatic1111 on a Mac.
https://artificialinteligenceai.com/ai/stable-diffusion-automatic-1111. This Mac webgui, allows more control over your images and removes the limitations.
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingYoung Seok Kim
Review of paper
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
ArXiv link: https://arxiv.org/abs/1810.04805
YouTube Presentation: https://youtu.be/GK4IO3qOnLc
(Slides are written in English, but the presentation is done in Korean)
BERT is a pre-trained language representation model that uses the Transformer architecture. It is pre-trained using two unsupervised tasks: masked language modeling and next sentence prediction. BERT can then be fine-tuned on downstream NLP tasks like question answering and text classification. When fine-tuned on SQuAD, BERT achieved state-of-the-art results by using the output hidden states to predict the start and end positions of answers within paragraphs. Later work like RoBERTa and ALBERT improved on BERT by modifying pre-training procedures and model architectures.
This document provides an overview of ChatGPT and how it works. It begins with introductions and then provides examples of deep learning applications. It explains that ChatGPT is a type of neural network called a Generative Pre-Trained Transformer (GPT) that is trained on large amounts of text data to predict the next word. GPTs work using an autoregressive approach where each word prediction depends on the previous words generated. The document concludes by explaining how very large GPT models like GPT-3 are able to generate full sentences and conversations.
GPT-2: Language Models are Unsupervised Multitask LearnersYoung Seok Kim
This document summarizes a technical paper about GPT-2, an unsupervised language model created by OpenAI. GPT-2 is a transformer-based model trained on a large corpus of internet text using byte-pair encoding. The paper describes experiments showing GPT-2 can perform various NLP tasks like summarization, translation, and question answering with limited or no supervision, though performance is still below supervised models. It concludes that unsupervised task learning is a promising area for further research.
Transfer learning in NLP involves pre-training large language models on unlabeled text and then fine-tuning them on downstream tasks. Current state-of-the-art models such as BERT, GPT-2, and XLNet use bidirectional transformers pretrained using techniques like masked language modeling. These models have billions of parameters and require huge amounts of compute but have achieved SOTA results on many NLP tasks. Researchers are exploring ways to reduce model sizes through techniques like distillation while maintaining high performance. Open questions remain around model interpretability and generalization.
Explore the power of ChatGPT, an advanced AI language model, in this SlideShare presentation. Discover how ChatGPT can revolutionize natural language understanding and generation across various applications, from chatbots to content creation, in just a few slides.
This document provides an introduction to speech recognition with deep learning. It discusses how speech recognition works, the development of the field from early methods like HMMs to modern deep learning approaches using neural networks. It defines deep learning and explains why it is called "deep" learning. It also outlines common deep learning architectures for speech recognition, including CNN-RNN models and sequence-to-sequence models. Finally, it describes the layers of a CNN like convolutional, pooling, ReLU and fully-connected layers.
Image Captioning Generator using Deep Machine Learningijtsrd
Technologys scope has evolved into one of the most powerful tools for human development in a variety of fields.AI and machine learning have become one of the most powerful tools for completing tasks quickly and accurately without the need for human intervention. This project demonstrates how deep machine learning can be used to create a caption or a sentence for a given picture. This can be used for visually impaired persons, as well as automobiles for self identification, and for various applications to verify quickly and easily. The Convolutional Neural Network CNN is used to describe the alphabet, and the Long Short Term Memory LSTM is used to organize the right meaningful sentences in this model. The flicker 8k and flicker 30k datasets were used to train this. Sreejith S P | Vijayakumar A "Image Captioning Generator using Deep Machine Learning" Published in International Journal of Trend in Scientific Research and Development (ijtsrd), ISSN: 2456-6470, Volume-5 | Issue-4 , June 2021, URL: https://www.ijtsrd.compapers/ijtsrd42344.pdf Paper URL: https://www.ijtsrd.comcomputer-science/artificial-intelligence/42344/image-captioning-generator-using-deep-machine-learning/sreejith-s-p
The document discusses advances and challenges in model evaluation and summarizes a presentation on this topic. It provides an overview of the growing landscape of natural language processing (NLP) models, including their usage trends over time. There is a lack of documentation for most models, with only 50% having model cards despite contributing 98% of usage. The presentation proposes a randomized controlled trial to study whether improving model documentation could increase usage by adding documentation to a treatment group of models and comparing their usage to an undocumented control group. The goal is to provide more transparency and drive better model communication and reproducibility.
PyBay23: Understanding LangChain Agents and Tools with Twilio (or with SMS)....Elizabeth (Lizzie) Siegle
With LangChain, developers “chain” together different LLM components to create more advanced use cases around LLMs. Agents use LLMs to decide what actions should be taken. Get introduced to LangChain about what you can do with Agents, Tools, and communication APIs!
Talk given at PyBay 2023 in San Francisco, CA on Sunday, October 8, 2023
This document provides an overview of transformers in computer vision. It discusses how transformers were originally developed for natural language processing using attention mechanisms instead of recurrent connections. Vision transformers apply this approach to images by treating patches as tokens and using self-attention. Early vision transformers achieved strong results on image classification tasks. Recent developments include Swin transformers which use shifted windows to incorporate positional information, and models that combine convolutional and transformer architectures. Transformers are also being applied to video understanding tasks. The document explores different transformer architectures and applications of vision transformers.
This document discusses techniques for fine-tuning large pre-trained language models without access to a supercomputer. It describes the history of transformer models and how transfer learning works. It then outlines several techniques for reducing memory usage during fine-tuning, including reducing batch size, gradient accumulation, gradient checkpointing, mixed precision training, and distributed data parallelism approaches like ZeRO and pipelined parallelism. Resources for implementing these techniques are also provided.
This document provides an overview of generative AI language models (LLMs), including their structure, popular models, applications, and data sets. It discusses the author's background and motivation. The history of LLMs is explored from early word embedding models to modern large Transformer models like GPT-3. Key components of LLMs like tokenization and attention are described. Popular applications of LLMs in tasks like text generation, question answering, and translation are also summarized.
The document discusses image captioning using deep neural networks. It begins by providing examples of how humans can easily describe images but generating image captions with a computer program was previously very difficult. Recent advances in deep learning, specifically using convolutional neural networks (CNNs) to recognize objects in images and recurrent neural networks (RNNs) to generate captions, have enabled automated image captioning. The document discusses CNN and RNN architectures for image captioning and provides examples of pre-trained models that can be used, such as VGG-16.
BERT is a deeply bidirectional, unsupervised language representation model pre-trained using only plain text. It is the first model to use a bidirectional Transformer for pre-training. BERT learns representations from both left and right contexts within text, unlike previous models like ELMo which use independently trained left-to-right and right-to-left LSTMs. BERT was pre-trained on two large text corpora using masked language modeling and next sentence prediction tasks. It establishes new state-of-the-art results on a wide range of natural language understanding benchmarks.
最近のNLP×DeepLearningのベースになっている"Transformer"について、研究室の勉強会用に作成した資料です。参考資料の引用など正確を期したつもりですが、誤りがあれば指摘お願い致します。
This is a material for the lab seminar about "Transformer", which is the base of recent NLP x Deep Learning research.
The document provides an overview of natural language processing (NLP). It defines NLP as the automatic processing of human language and discusses how NLP relates to fields like linguistics, cognitive science, and computer science. The document also describes common NLP tasks like information extraction, machine translation, and summarization. It discusses challenges in NLP like ambiguity and examines techniques used in NLP like rule-based systems, probabilistic models, and the use of linguistic knowledge.
Sviluppo in Java di un tool che sia di ausilio al programmatore permettendo la ricerca e l'inserimento di code pattern attraverso una specifica keyword.
Agile è entrato nel gergo comune di molte aziende che hanno a che fare con progetti IT. Questa è una buona cosa: il termine è conosciuto e accettato come una buona prassi, le persone sono ben disposte ad adottare metodi e pratiche che consentono di migliorare la gestione del ciclo di vita di un prodotto software e sono favorevoli al cambiamento.
Quando però si parte veramente mi sono trovato in diverse situazioni dove Agile si limitava alla parte “persone” e “organizzazione” ma non entrava nel merito di come si sviluppa il codice!
La provocazione “Stop Meeting, Start Coding” vuol ridurre all’essenziale i momenti di confronto e concentrarsi a scrivere buon codice, insieme!
In questo talk presenterò alcune buone pratiche di coding che favoriscono anche l’efficacia organizzativa.
Intelligenza Artificiale e Robotica - Applicazioni industriali e responsabili...Edoardo E. Artese
Le slide sono state proiettate durante il workshop a SMAU Padova 2019. L'intelligenza artificiale è un argomento sempre più sentito in ambito industriale e produttivo. Dopo una breve introduzione dello stato attuale dell'intelligenza artificiale e delle sue recenti evoluzioni, sono state analizzate le sue applicazioni in ambito industriale, concludendo dunque con una analisi giuridica dell'Intelligenza artificiale, con specifico riferimento alla responsabilità del produttore.
Francesco Liguori, Giuliano Liguori | Il Project Manager ai tempi dell'IAPMexpo
L'avvento dell'Intelligenza Artificiale Generativa sta ridefinendo il ruolo del Project Manager. In questa presentazione esploreremo le competenze necessarie al Project Manager 5.0 per gestire progetti complessi integrando efficacemente l'Intelligenza Artificiale. Vedremo come un approccio umano-centrico, che ponga le persone al centro arricchito dalle potenzialità dell'AI, consenta di ottenere risultati migliori. Presenteremo metodologie innovative che uniscono il pensiero analitico umano con la potenza computazionale delle macchine per una gestione di progetto aumentata. L'obiettivo è ispirare una nuova generazione di Project Manager pronti ad affrontare le sfide del futuro.
"Alice in WordPressLand" è un talk esperienziale nato dalle riflessioni post-WordCamp dal punto di vista di uno sviluppatore giornalmente alle prese con Web Framework, tecnologie e "linguaggi serissimi". La presentazione include una serie di analisi e valutazioni soggettive sui veri punti di forza di WordPress ed alcuni suoi aspetti (spesso poco tecnici) talvolta trascurati, ma determinanti per la sua adozione. Si passa, infine, per una serie di best practices - scoperte, autoimposte e affermatesi nel corso degli anni - che portano anche a ricongiugersi ai valori dell'Agile ed riscoprirne i principi per una concezione più profonda ed innovativa del ruolo di sviluppatore.
IoT Design Deck - Il metodo per il Co-Design della UX di prodotti e servizi c...Massimiliano Dibitonto
L'IoT Design Deck è un metodo per la progettazione Human-Centered di prodotti e servizi connessi. Aiuta i team multidisciplinari a sviluppare progetti che sfruttino le potenzialità dell'IoT mantenendo al centro l'utente. Puoi accedere da qui alla registrazione del webinar di presentazione https://vimeo.com/706243995
L’intelligenza artificiale offre grandi opportunità per creare nuovi modelli di business o migliorare quelli esistenti.
In senso più ampio cambia il modo di lavorare, sviluppare relazioni e gestire i processi operativi con clienti, colleghi e partner.
Si tratta dunque di uno strumento potente i cui benefici si estendono in molti settori anche tradizionali: Formazione, Servizi B2B, Professionisti e Aziende manifatturiere.
Questo workshop intende offrire alcuni spunti sull’Intelligenza Artificiale e come si applica a casi pratici anche per interessati privi di specifiche competenze “ingegneristiche” o di programmazione.
Perché è importante l’intelligenza artificiale?
Come selezionare le informazioni più significative per il tuo settore?
Quali sono i modelli e strumenti che facilitano le scelte di business più corrette?
Perché l’approccio “open” è più efficace?
Lean Web Solutions with WP [versione italiana]Carlo Beschi
Slide della mia presentazione al Wordcamp Milano 2011 su "Soluzioni web Lean con WordPress"
(http://wordcamp.it/milano2011/thank-god-its-friday-wordcamp-programma-del-27-maggio-2011/)
Collaborazione, Decisionalità e Gestione della Complessità nel Tempo: cosa ...Commit University
Vuoi migliorare la gestione dei progetti a lungo termine con team multidisciplinari e prendere decisioni rischiose in modo sicuro e ponderato? Non perderti il nostro workshop gratuito!
Antonio Dell’Ava, Frontend Developer di eDreams Odigeo, condividerà strategie per aiutarti a ottimizzare la collaborazione nel tuo team, scegliere gli strumenti giusti per ogni situazione e garantire l’evoluzione del progetto nel tempo
Slides di una breve conferenza che ho tenuto a scuola. Ritengo che lo stereotipo del programmatore brutto, scontrorso e antisociale sia in declino, ma perché ciò si realizzi davvero occorre affinare nuove abilità, le abilità sociali. Sia Online che Offline
Basato in parte sul lavoro seguente
http://www.slideshare.net/mastorey/msr-2012-keynote-storey-slideshare
Oltre l'hype: vulnerabilità e limiti dell'intelligenza artificiale.pdfCommit University
Non è tutto oro quello che luccica, in questa presentazione esploreremo le principali criticità e i rischi associati all'intelligenza artificiale (IA). Come si può attaccare un sistema informatico allo stesso modo esistono gli attacchi ai modelli di machine learning, come l'avvelenamento dei dati e gli esempi avversariali, che minano l'integrità dei sistemi. Inoltre, si evidenzia come i bias nei dati di addestramento possano portare a decisioni discriminatorie, influenzando settori cruciali come la giustizia e l'occupazione. La necessità di una spiegabilità nell'IA viene sottolineata per garantire trasparenza, fiducia e un uso etico della tecnologia. L'obiettivo è fornire una visione equilibrata, sottolineando l'importanza di una vigilanza continua e di miglioramenti costanti per sfruttare il potenziale dell'IA in modo responsabile.
Come funzionano i Retrieval-Augmented Generators (RAG) e quanto i database vettoriali sono fondamentali per poter memorizzare e utilizzare le sorgenti dati aziendali e personali?
Crea il tuo assistente AI con lo Stregatto (open source python framework)Commit University
Open source, in Python, compatibile con vari LLM ed estendibile tramite plugin: queste sono solo alcune delle potenzialità del framework Cheshire Cat AI!
Breaking REST Chains_ A Fastify & Mercurius Pathway to GraphQL Glory.pdfCommit University
This document contains slides from a presentation by Luca Del Puppo about building GraphQL servers using Fastify and Mercurius. The presentation introduces GraphQL and its advantages over REST APIs. It then discusses why Mercurius is a good choice for building GraphQL servers on Fastify and outlines some features it provides out of the box. The presentation concludes by providing resources for learning more about Fastify, Mercurius and building GraphQL servers.
A volte essere pigri è una qualità, evita (quasi) tutte le richieste di personalizzazioni lasciando "finestre aperte" nei tuoi componenti generici.
Gli slots sono un modo per passare il contenuto a un componente in Vue.js. Permettono di definire una sezione nel template di un componente che può essere sostituita dall'esterno.
È inoltre possibile assegnare un nome o uno "scope" agli slots, garantendo così maggiore controllo e personalizzazione sul contenuto. I "named slots" consentono di definire più slots nello stesso componente, assegnando dei nomi specifici.
Gli "scoped slots" ti consentono di accedere dall'esterno ai dati interni del componente.
Quante volte mi è capitato di migliorare applicazioni lente e difficili da ottimizzare, ma poi ho scoperto Qwik e tutto è cambiato.
Con il suo nuovo modello mentale è in grado di fare la differenza e scalare facilmente qualsiasi applicazione.
Non conosci questo framework? Nessuna paura...andiamo a scoprirlo assieme!
Backstage l'Internal Developer Portal Open Source per una migliore Developer ...Commit University
Backstage is an open source platform for building developer portals that unifies all tooling, services, apps, data, and documentation with a single consistent UI. It allows developers to focus on their work by providing a centralized location to create software, manage what they own, and explore the entire software ecosystem. Backstage has a customizable, extensible plugin architecture built with modern technologies to make it easy to develop for and contribute to developer portals in a cloud-agnostic, vendor-neutral way.
Nella giungla degli ORM node, Prisma sta prendendo sempre più piede. Ha migliorato la Developer Experience, si integra perfettamente con Typescript e funziona dannatamente bene con diversi provider. In questo talk, vedrai come Prisma può migliorare il tuo lavoro quotidiano e come ti permette di avere un maggior controllo della tua code base aiutandoti a prevenire fastidiosi errori nella tua applicazione nodejs.
Decision-making for Software Development Teams - Commit UniversityCommit University
Ti senti bloccato quando si tratta di prendere decisioni critiche su aspetti tecnologici? Vuoi conoscere i processi decisionali collaborativi e come applicarli al tuo team?
Francesco Strazzullo, Chief Operating Officer di Claranet Italia, ti insegnerà gli elementi chiave per prendere decisioni critiche su aspetti tecnologici, gestire i requisiti non funzionali e lavorare con processi decisionali collaborativi.
L’Advisor Leader dell’area Game di NABA, Marco Secchi, ti insegnerà come migliorare la gestione degli oggetti in-game e la loro comunicazione utilizzando Unity Engine e Design Pattern Component.
La prototipazione è un’attività fondamentale per “capire facendo”. Lo scopo della prototipazione non è costruire partendo da un progetto definito ma, piuttosto, acquisire dati preziosi per essere poi più consapevoli di prendere la giusta direzione. Alla base delle attività di prototipazione ci sono spesso strumenti low code e no code. Esistono ormai da diversi anni e ultimamente stanno guadagnando sempre più attenzione nella community per la loro immediatezza e velocità. Abbiamo definito meglio le loro qualità e le opportunità che ci sono nel loro utilizzo.
Durante il talk abbiamo approfondito perché è importante prototipare e come questa attività migliora i nostri progetti. In particolare, abbiamo approfondito l’utilizzo AWS Step Functions Workflow Studio, strumento low code prodotto da AWS. Workflow Studio ci permette di imbastire una state machine basata su step functions con uno strumento visuale drag & drop che semplifica moltissimo il nostro lavoro. Abbiamo analizzato cosa lo contraddistingue da altri strumenti e quali sono i suoi punti di forza. Infine siamo passati alla pratica facendo una piccola esercitazione con AWS Step Functions.
KMM survival guide: how to tackle struggles between Kotlin and SwiftCommit University
Kotlin Multiplatform Mobile (KMM) è un SDK per lo sviluppo di applicazioni Android ed iOS che consente agli sviluppatori di condividere la business logic mantenendo UI/UX native.
Ogni SDK/framework cross/multi platform ha i suoi pro ed i suoi contro, e purtroppo KMM non è l'eccezione che conferma la regola.
Se sei uno sviluppatore Android potresti pensare che tutto funzionerà correttamente, ma purtroppo non sarà così quando dovrai confrontarti con Swift.
Se sei uno sviluppatore iOS saprai che Swift è simile a Kotlin, ma non in tutto, dovrai quindi conoscere alcune sue caratteristiche.
In questo talk vedremo quali sono i problemi che si possono riscontrare nell'interoperabilità tra Kotlin e Swift, i motivi che li causano, e come risolverli.
Stai perdendo la testa cercando di convertire il tuo state manager da Vuex a Pinia?
Ecco una guida step-by-step per affrontare questo task senza difficoltà.
I micro-frontend sono uno degli argomenti più interessanti nel mondo frontend dell'ultimo periodo ma nonostante la loro popolarità, non esistono delle linee guida comuni per svilupparli. micro-lc risponde a questa esigenza e permette di raccogliere in un unico applicativo tanti micro-frontend, orchestrandoli e rendendoli parte della stessa applicazione e non più componenti singoli, scollegati e sconnessi.
Fastify è il web framework del momento e diverse aziende in tutto il mondo lo stanno utilizzando in produzione da anni.
Costruito da zero per essere il più veloce possibile, con un overhead minima e una potente architettura a plugin, Fastify fornisce la migliore esperienza di sviluppo, senza sacrificare prestazioni e sicurezza.
Da sempre per la realizzazione delle interfacce Apple ha messo a disposizione UIKit, un framework solido, continuamente sviluppato ed evoluto, tanto da crearne uno standard per gli sviluppi mobili. UIKit nei primi 11 anni dei dispositivi mobili Apple ha supportato gli sviluppatori nella creazione della quasi interezza delle app attualmente sugli store, fino al 2019, anno in cui ha presentato appunto SwiftUI. Dopo 3 anni a che punto siamo? UIKit è stato sostituito o lo sarà a breve?
2. Ciao Commit University!
I'm Andrea Guzzo:
- AI Technical Leader @MDPI
- Organizer @PythonBiellaGroup
- Nerd @ByNight
- Sometimes @ComputerScientist
Trying to follow the PEP8 way..
Reach me:
- https://linktr.ee/jeydi92
Grazie di avermi invitato e grazie di essere qui!!!
3. È vero che solo le big tech possono fare "intelligenza artificiale"?
Di cosa parliamo?
● Cosa vuol dire NLP?
● Qual è lo stato dell’arte dell’Intelligenza Artificiale?
● Quali sono i modelli più utilizzati? Che problemi si possono risolvere?
● Come si può realizzare un Sistema di Intelligenza Artificiale che utilizza il testo
e il linguaggio naturale?
● Facciamo qualche esempio!
5. Cosa vuol dire fare NLP?
- Processare differenti formati di testo scritti in linguaggio naturale in modo che
siano comprensibili da una macchina
- Utilizzare il testo per estrarre informazioni utili tramite l'impiego di algoritmi.
Il linguaggio naturale comporta moltissimi problemi
6. Un po' di storia
3 / 5 anni fa il mio attuale lavoro non esisteva
Quanto testo "digitale" esiste ora? Quanto è grande il "web" adesso?
7. Cosa sta succedendo adesso?
https://openai.com/dall-e-2/
https://www.midjourney.com/home/
https://github.com/features/copilot
https://openai.com/blog/whisper/
https://www.theverge.com/2022/9/29/23378210/meta-text-to-video-ai-generation-
make-a-video-model-dall-e
● Ma ci sono sempre gli umani!
8. Cosa sta succedendo adesso?
● È una beta
● È GPT
● È GROSSO (175 miliardi di parametri)
● È probabilistico e molto arrogante
● Funziona bene su cose semplici
● Sbaglia ancora tanto
● Non è aggiornato
● Potrebbe essere rivoluzionario (però è figo)
11. Si ma concretamente, cosa si può fare?
A partire da degli articoli scientifici (papers e journals):
● Trovare delle similarità semantiche: Article Similarity
● Trovare simili autori e revisori per gli articoli: Peer Reviewer Finder
● Capire di cosa parlano certi articoli: Topic Finder, Article Summarization
● Raggruppare articoli simili: Article Clustering
● Estrarre parole chiave: Topic Modelling
● Capire se ci sono delle copiature o dei problemi: Ethical Project
● Migliorare il processo di revisione manuale: Regole sintattiche e sematiche (POS)
● Suggerire riviste e articoli agli utenti: Finder
● Creare dashboard per l'analisi dei dati
● E tanto tanto altro ancora…
13. Di quali algoritmi stiamo parlando?
BERT Model
Word Embeddings
https://medium.com/@hari4om/word-embedding-d816f643140 https://jalammar.github.io/illustrated-bert/
14. Di quali algoritmi stiamo parlando?
Transformer!
https://jalammar.github.io/illustrated-transformer/ https://jalammar.github.io/how-gpt3-works-visualizations-animations/
16. Alcuni concetti fondamentali…
● Algoritmi addestrati da altri: Pre-addestrati
● Modelli pre-addestrati sono molto difficili da addestrare e serve tanto corpus
● Grazie al transfer learning è possibile specializzare gli algoritmi pre addestrati
● È possibile condividere modelli pre addestrati
● Specializzare un algoritmo sui tuoi dati: fine tuning
● Alla fine si ottengono degli embeddings (vettori in uno spazio)
● È possibile applicare della «matematica» agli embeddings per fare calcoli (similarità)
https://huggingface.co/
18. Anatomie delle aziende
● Come faccio a valorizzare i dati e le informazioni che ho a disposizione?
● Posso realizzare anche io un progetto Dati (Science, AI) che funziona davvero?
19. Ma non dimentichiamo mai
Ogni azienda è unica perchè ha dati unici e persone uniche
I dati sono più importanti degli oggetti che li hanno creati:
- Le informazioni estratte valgono più dei dati
- La conoscenza vale più dell'informazione
- La saggezza ricavata ha un valore inestimabile
“Ogni azienda è una società di analisi dati” Amir Orad, Forbes Feb. 2020
“Chi controlla la spezia controlla l'universo!” Baron Vladimir Harkonnen
20. Reasonable Scale
Criteri:
- Computazione: hanno una disponibilità limitata di budget per la computazione, non un intero data
center a disposizione
- Grandezza del team: hanno dozzine di ingegneri, non centinaia
- Ricavato: hanno fatturati da milioni all'anno, non miliardi (e magari la tecnologia non è il loro core
business)
- Dati: hanno una disponibilità limitata di datasets (terabytes-sized), non petabytes.
- Impatto: non utilizzano Data Science come strumento quotidiano nel loro lavoro
Jacopo Tagliabue (Adjunct Professor NYU) - StanfordMLSysSeminars
21. Come possiamo trovare una soluzione e fare un progetto?
Siamo "data people", quindi il nostro compito è quello di creare qualcosa
che abbia un valore (per davvero).
La risposta: Non abbiamo bisogno di una barca più grande!
● Il dato è il Re: ossessionati con la qualità del dati, perchè è il punto in cui il guadagno è maggiore
○ Corollario: importante prima investire in Data Engineers (più che in) Data Scientists
● PaaS è meglio di Iaas: Il tempo è spesso la risorsa più scarsa e ci sono molte soluzioni e strumenti che ci
possono semplificare la vita, usiamole!
○ Corollario = less is more e KISS: non scrivere codice che altri hanno già scritto
● Sforzarsi di essere "agili": L'archiviazione intelligente dei dati, moderni computer portatili, accesso
facilitato alle risorse "scalable computing" è tutto quello di cui c'è bisogno
○ Corollary: il calcolo distribuito (ad esempio Spark) è la radice di tutti i mali
Jacopo Tagliabue (Adjunct Professor NYU) - StanfordMLSysSeminars
22. Come possiamo trovare una soluzione?
● General trend 1: I modelli sono diventati delle commodities (es: computer vision e NLP),
le pipelines di gestione dei dati rappresentano il vantaggio competitivo (ma fa meno figo)
● General trend 2: al di là di alcuni giganti tecnologici il 95% (ma anche il 99%) degli strumenti,
delle necessità e dei modelli possono essere risolti con strumenti off-the-shelf (principalmente
open source)
24. Reasonable scale: per noi!
Come abbiamo costruito i nostri progetti?
- Partire con il team: creare una metodologia di lavoro che funzioni bene per il
tuo team, coinvolgere sempre il "gestore" dei dati e l'utente finale nel processo.
Bisogna costruire qualcosa che funzioni!
- Creare building blocks: partire dai fondamentali, creare semplici template e generalizzare il codice
per tutti i progetti.
- Get out of the building: bisogna andare in produzione subito, dal giorno 0
- Shiny object syndrome: l'ultimo modello o l'ultima tecnologia sul mercato non risolverà il tuo
problema nella maggior parte dei casi
- Nessuna scusa: se non puoi fare qualcosa, costruisci con quello che hai, e solitamente è più che
abbastanza.
- Deve funzionapre per gli utenti: alla fine, il progetto deve funzionare e deve essere utilizzato dagli
utenti
- Il "perchè" (la domanda di ricerca) è sempre il faro nella notte!
28. Si può fare!
- Democratizzazione: al giorno d'oggi l'Intelligenza Artificiale è stata molto
"democratizzata"
- Non solo le big tech: tutti possono realizzare la propria soluzione (non serve una barca
sempre più grande)
- Giusta filosofia: Bisogna conoscere, approfondire, imparare (never ending learning), ma avendo la
giusta metodologia e filosofia di lavoro fin da subito
- Trovare la propria: "reasonable scale"
- Il mondo dell'Intelligenza Artificiale sta evolvendo tantissimo! Soprattutto in alcuni campi
- Attenzione: è un mondo vasto e ci si può perdere facilmente, se non sai cosa stai facendo
- Non cediamo alla fuffa… o a terminator!