Full GPT architecture


Autor:
Původní dílo: Marxav, Vektorizace: Mrmw
Formát:
500 x 600 Pixel (19868 Bytes)
Popis:
The full architecture of a generative pre-trained transformer (GPT) model
 
Function with trainable parameters
 
Function without trainable parameters
 
Transformer block
 
Function activated during inference, inactive during training
Licence:
CC0
Credit:
Vlastní tvorba založená na: Full GPT architecture.png
Sdílet obrázek:
Facebook   Twitter   Pinterest   WhatsApp   Telegram   E-Mail
Více informací o licenci na obrázek naleznete zde. Poslední aktualizace: Thu, 15 Aug 2024 02:56:39 GMT


Relevantní články

Generative pre-trained transformer

Generative pre-trained transformer, zkratka GPT, česky Generativní předtrénovaný transformátor, je typ velkého jazykového modelu, který funguje jako umělá neuronová síť, založená na architektuře transformerů. .. pokračovat ve čtení