Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. BERT - Teknopedia
BERT - Teknopedia

BERT, acronimo di Bidirectional Encoder Representations from Transformers, è un modello di apprendimento automatico basato su trasformatori utilizzato nell'elaborazione del linguaggio naturale (NLP). BERT è stato creato e pubblicato nel 2018 da Jacob Devlin e dai suoi colleghi di Google.[1][2] Nel 2019, Google annunciò di aver cominciato a utilizzare BERT per il suo motore di ricerca, e verso la fine del 2020 pressoché ogni richiesta in lingua inglese utilizzava BERT. Un'analisi pubblicata nel 2020 in letteratura concluse che BERT diventò il riferimento per gli esperimenti di NLP in poco più di un anno, contando oltre 150 pubblicazioni che provavano a migliorare o ad analizzare il modello.[3]

Il BERT originale in lingua inglese consisteva in due modelli:

  • BERTBASE: composto da 12 encoder, ciascuno dei quali prevede 12 teste di auto-attenzione bidirezionale (bidirectional self-attention).
  • BERTLARGE: composto da 24 encoder, ciascuno con 16 teste.

Entrambi i modelli sono pre-addestrati su testo non supervisionato proveniente dagli insiemi di dati di BooksCorpus[4] (un insieme di 11.083 libri non pubblicati, comprendenti un totale di 800 milioni di parole) e Teknopedia in lingua inglese (che comprende, escludendo tabelle e figure, 2500 milioni di parole).[5]

Note

[modifica | modifica wikitesto]
  1. ↑ Jacob Devlin, Ming-Wei Chang e Kenton Lee, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2018, DOI:10.48550/ARXIV.1810.04805. URL consultato il 16 settembre 2022.
  2. ↑ (EN) Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing, su Google AI Blog. URL consultato il 16 settembre 2022.
  3. ↑ Anna Rogers, Olga Kovaleva e Anna Rumshisky, A Primer in BERTology: What we know about how BERT works, in arXiv, 9 novembre 2020, arXiv:2002:12327. URL consultato il 16 settembre 2022.
    «in a little over a year, BERT has become a ubiquitous baseline in NLP experiments»
  4. ↑ Yukun Zhu, Ryan Kiros e Richard Zemel, Aligning Books and Movies: Towards Story-like Visual Explanations by Watching Movies and Reading Books, in arXiv[cs], 22 giugno 2015, arXiv:1506.06724. URL consultato il 16 settembre 2022.
  5. ↑ bert-base-uncased, su huggingface.co. URL consultato il 16 settembre 2022.

Altri progetti

[modifica | modifica wikitesto]

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su BERT

Collegamenti esterni

[modifica | modifica wikitesto]
  • (EN) Sito ufficiale, su arxiv.org. Modifica su Wikidata
  • Repository sorgenti di BERT, su github.com. Modifica su Wikidata
V · D · M
Intelligenza artificiale
ConcettiEtica dell'intelligenza artificiale · Arte generativa · Intelligenza artificiale debole · Intelligenza artificiale forte · Superintelligenza · Sicurezza dell'intelligenza artificiale · Intelligenza artificiale generativa · Agente software · Agente intelligente · IA-completo · Sistema esperto · Intelligenza artificiale open source
Tecnologie
Apprendimento automaticoApprendimento profondo · Apprendimento per rinforzo · Chain of Thought · GPT · Mistura di esperti · Model Context Protocol · Modello fondazione · Programmazione differenziabile · Ricerca ad albero Monte Carlo · Rete neurale artificiale · Rete neurale ricorrente · Retrieval augmented generation · Trasformatore
Ragionamento automaticoDatabase probabilistico · Datalog · Dimostrazione automatica · Modello grafico · Programmazione logica abduttiva · Programmazione logica induttiva · Programmazione probabilistica · Problema di soddisfacimento di vincoli (CSP) · Prolog · Ragionamento probabilistico · Rete bayesiana (belief network) · Risoluzione
Modelli LLM (Elaborazione del linguaggio naturale)DeepSeek (DeepSeek-V3 e varianti, DeepSeek R1) · GPT (3 · 4) · Dolly · Gemma 2B · Gemma 7B · PaliGemma 2 · Haiku · LLaMA · Mistral 7B · Mixtral 8x7B · Mistral Medium · Mistral Large 3 · OpenEuroLLM (open source) · Opus · PaLM · Qwen · Sonetto
Librerie e piattaforme softwareBlackwell · Keras · PyTorch · TensorFlow · TensorRT-LLM · Theano · Vertex AI · vLLM
Implementazioni
ChatbotA.L.I.C.E. · BERT · Bing AI · ChatGPT · Claude · Copilot · Dbrx · Gemini · Grok · Kimi OpenGPT-X Teuken-7B (open source) · Perplexity · Tongyi Qianwen (Alibaba) · Rufus · TruthGpt · YandexGPT
GraficaDALL-E · Imagen · Midjourney · Stable Diffusion
DecisionaleAlphaZero · AlphaGo Zero · Q-learning · Autovettura autonoma (Tesla Autopilot)
VideoAdobe Firefly Video · Kling AI · RunwayML Gen-3 Alpha · Sora · Veo  ·
MultimodaleBloom · DeepSeek-VL · LaMDA · LLaVA · Megatron-Turing NLG · NVLM 1.0 (NVLM-D-72B) Phi-4-multimodal · Pixtral 12B · VALL-E · WuDao
RagionamentoAlibaba Qwen-QWQ · Baidu ERNIE · Claude 3.7 Sonnet · DeepSeek-R1 · IBM Granite 3.2 (open source) · Google Gemini 2.0 Flash Thinking · Grok 3 · Mistral Magistral · OpenAI o1 · Vitruvian-1
TraduttoreMicrosoft SeamlessM4T · Nvidia Canary 1b · OpenAI WhisperV3  ·
Aziende / Centri
di ricerca
Accademia delle Scienze Cinese · Alibaba · Anthropic · Databricks · DeepMind (Alphabet) · DeepSeek · Google · Hi! PARIS · Hugging Face · IBM · Meta AI · Midjourney · Microsoft · Mistral AI · Moonshot AI · NVIDIA · OpenAI · Tesla
Estratto da "https://it.wikipedia.org/w/index.php?title=BERT&oldid=143360155"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022