Language model context understanding
Autor:
Přisuzování:
Obrázek je označen jako „Vyžadováno uvedení zdroje“ (Attribution Required), ale nebyly uvedeny žádné informace o přiřazení. Při použití šablony MediaWiki pro licence CC-BY byl pravděpodobně parametr atribuce vynechán. Autoři zde mohou najít příklad pro správné použití šablon.
Shortlink:
Zdroj:
Formát:
2000 x 1414 Pixel (104381 Bytes)
Popis:
Chápání kontextu u jazykového modelu
Licence:
Credit:
Vlastní dílo
Relevantní články
BERTBidirectional Encoder Representations from Transformers (BERT), volně Obousměrné kódovací reprezentace z transformátorů, je velký jazykový model, tedy předtrénovaný základní model pro zpracování přirozeného jazyka (NLP). Je založený na transformerech. Je schopen pracovat s kontextem textu zleva i zprava, tedy v celé větě, na rozdíl od GPT, který je autoagresivní model a rozumí jen kontextu zleva. Důvodem je sada trénovacích dat, základní model u BERT je maskovaný jazykový model, u GPT se jedná o kauzální jazykový model. .. pokračovat ve čtení