Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Fine-tuning (deep learning) - Teknopedia
Fine-tuning (deep learning) - Teknopedia

Il fine-tuning, in deep learning, è una pratica di transfer learning utilizzata per adattare un modello pre-addestrato (spesso tramite apprendimento autosupervisionato) a un compito specifico. Questo avviene mediante un ulteriore addestramento su un insieme di dati più piccolo e mirato. Nel contesto dell'NLP, il fine-tuning è ampiamente utilizzato per specializzare modelli linguistici pre-addestrati, come BERT o GPT, su compiti specifici quali la classificazione del testo, la traduzione automatica o la generazione controllata di testi.[1]

Esempi di applicazione

[modifica | modifica wikitesto]

Tra gli esempi più rilevanti di fine-tuning figurano modelli come BERT (Bidirectional Encoder Representations from Transformers), che mostrano come un addestramento aggiuntivo possa migliorare l'accuratezza del modello in determinati compiti.[2]

Analogamente, modelli generativi quali GPT (Generative Pre-trained Transformer), sviluppati da OpenAI, sono frequentemente oggetto di fine-tuning per specifiche applicazioni, come assistenti virtuali e strumenti educativi.[3]

Un esempio è il fine-tuning di GPT-3 su dataset specifici, che ha consentito lo sviluppo di chatbot specializzati in domini come il supporto clienti o la consulenza medica.

Tecniche di fine-tuning

[modifica | modifica wikitesto]

Il fine-tuning può essere applicato in diversi modi, a seconda delle risorse disponibili e del compito specifico. Nel full fine-tuning, tutti i parametri del modello vengono aggiornati, mentre nel partial fine-tuning solo alcuni strati vengono addestrati, lasciando gli altri congelati.[1] Tecniche più recenti, come LoRA (Low-Rank Adaptation), permettono di aggiornare solo una piccola parte dei parametri del modello, riducendo notevolmente il costo computazionale.[4] Altre tecniche, come il prefix-tuning e il prompt-tuning, modificano solo piccole parti dell'input o del modello, rendendo il fine-tuning più efficiente.[5]

Durante il fine-tuning, la scelta degli iperparametri è cruciale. Un learning rate troppo alto può causare instabilità, mentre uno troppo basso può rallentare la convergenza. Tecniche come il mixed precision training e il gradient accumulation sono spesso utilizzate per ottimizzare l'uso della memoria e accelerare l'addestramento.[6] Inoltre, il rischio di overfitting può essere mitigato tramite tecniche di regolarizzazione e early stopping.

Vantaggi e rischi

[modifica | modifica wikitesto]

Il fine-tuning degli LLM ha reso disponibili tecnologie linguistiche avanzate anche in contesti aziendali e accademici con risorse limitate, consentendo un uso efficace e mirato dei modelli pre-addestrati.[7] Tuttavia, è necessario prestare attenzione al rischio di overfitting, che potrebbe ridurre la capacità di generalizzazione del modello.[8] Inoltre, il fine-tuning può portare al cosiddetto "catastrophic forgetting", dove il modello dimentica le conoscenze apprese durante il pre-training. Problemi etici, come il bias nei dati di fine-tuning, rappresentano un ulteriore rischio da considerare.

Note

[modifica | modifica wikitesto]
  1. ^ a b Howard, J., & Ruder, S. (2018). Universal Language Model Fine-tuning for Text Classification. ACL.
  2. ^ Devlin et al., 2019.
  3. ^ Radford, A., Wu, J., Child, R., et al. (2019). Language Models are Unsupervised Multitask Learners. OpenAI.
  4. ^ Hu et al., 2022. LoRA: Low-Rank Adaptation of Large Language Models.
  5. ^ Li, X., & Liang, P., Prefix-Tuning: Optimizing Continuous Prompts for Generation, 2021, arXiv:2101.00190.
  6. ^ Micikevicius, P., et al. (2018). Mixed Precision Training. ICLR.
  7. ^ Bommasani, R., Hudson, D. A., Adeli, E., et al., On the Opportunities and Risks of Foundation Models, 2021, arXiv:2108.07258.
  8. ^ Brown, T., Mann, B., Ryder, N., et al. (2020). Language Models are Few-Shot Learners. NeurIPS.

Altri progetti

[modifica | modifica wikitesto]

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su Fine-tuning

Collegamenti esterni

[modifica | modifica wikitesto]
  • Dave Bergmann, Che cos'è la messa a punto?, su ibm.com, 15 marzo 2024.
V · D · M
Apprendimento automatico
ProblemiTeoria dell'apprendimento statistico · Classificazione · Regressione · Classificazione a singola classe · Ranking · Regole di associazione · Apprendimento non supervisionato · Apprendimento semi-supervisionato · Apprendimento supervisionato · Apprendimento auto-supervisionato · Apprendimento per rinforzo · Apprendimento profondo · Apprendimento online · Apprendimento incrementale · Apprendimento trasduttivo

Apprendimento non supervisionatoClustering · Clustering gerarchico · K-means · Algoritmo EM · DBSCAN · Mean shift · Rete generativa avversaria (cGAN · VAE-GAN · cycleGAN)
Apprendimento supervisionatoAlbero di decisione · Foresta casuale · Conditional random field CRF · Modello di Markov nascosto · Algoritmo k-nearest neighbors (k-NN) · Ragionamento basato su casi (CBR) · Classificatore bayesiano · Rete neurale artificiale · Regressione lineare · Regressione logistica · Modello grafico · Rete bayesiana · Macchine a vettori di supporto (SVM) · Processo gaussiano · Modello ensemble · Boosting · Bagging · Stacking · Voting · Cascading · Error correcting output code (ECOC)
Apprendimento per rinforzoQ-learning · SARSA · TD
Riduzione della dimensionalitàAnalisi fattoriale · Analisi della correlazione canonica (CCA) · Analisi delle componenti indipendenti (ICA) · Analisi discriminante lineare (LDA) · Analisi delle componenti principali (PCA) · Selezione delle caratteristiche · Estrazione di caratteristiche · t-distributed stochastic neighbor embedding (t-SNE)
Reti neurali artificialiPercettrone · Percettrone basato su kernel · Rete neurale a funzioni base radiali (RBF net) · Rete neurale feed-forward · Rete di Hopfield · Percettrone multistrato · Rete neurale ricorrente (LSTM) · Macchina di Boltzmann ristretta · Mappa auto-organizzata · Rete neurale convoluzionale · Rete neurale a ritardo · Rete neurale spiking · Rete neurale grafica · Trasformatore
SoftwareKeras · Microsoft Cognitive Toolkit · Scikit-learn · TensorFlow · Theano · PyTorch · Weka
AltroAlgoritmo genetico · Particle Swarm Optimization · Caratteristica · Compromesso bias-varianza · Minimizzazione del rischio empirico
  Portale Informatica: accedi alle voci di Teknopedia che trattano di informatica
Estratto da "https://it.wikipedia.org/w/index.php?title=Fine-tuning_(deep_learning)&oldid=146585750"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022