Language model context understanding


Autor:
Přisuzování:
Obrázek je označen jako „Vyžadováno uvedení zdroje“ (Attribution Required), ale nebyly uvedeny žádné informace o přiřazení. Při použití šablony MediaWiki pro licence CC-BY byl pravděpodobně parametr atribuce vynechán. Autoři zde mohou najít příklad pro správné použití šablon.
Formát:
2000 x 1414 Pixel (104381 Bytes)
Popis:
Chápání kontextu u jazykového modelu
Licence:
Credit:
Vlastní dílo
Sdílet obrázek:
Facebook   Twitter   Pinterest   WhatsApp   Telegram   E-Mail
Více informací o licenci na obrázek naleznete zde. Poslední aktualizace: Fri, 16 Feb 2024 14:32:50 GMT


Relevantní články

BERT

Bidirectional Encoder Representations from Transformers (BERT), volně Obousměrné kódovací reprezentace z transformátorů, je velký jazykový model, tedy předtrénovaný základní model pro zpracování přirozeného jazyka (NLP). Je založený na transformerech. Je schopen pracovat s kontextem textu zleva i zprava, tedy v celé větě, na rozdíl od GPT, který je autoagresivní model a rozumí jen kontextu zleva. Důvodem je sada trénovacích dat, základní model u BERT je maskovaný jazykový model, u GPT se jedná o kauzální jazykový model. .. pokračovat ve čtení