Full GPT architecture
Shortlink:
Zdroj:
Formát:
500 x 600 Pixel (19868 Bytes)
Popis:
The full architecture of a generative pre-trained transformer (GPT) model
Function with trainable parameters
Function without trainable parameters
Transformer block
Function activated during inference, inactive during training
Licence:
Credit:
Vlastní tvorba založená na: Full GPT architecture.png:
Relevantní články
Generative pre-trained transformerGenerative pre-trained transformer, zkratka GPT, česky Generativní předtrénovaný transformátor, je typ velkého jazykového modelu, který funguje jako umělá neuronová síť, založená na architektuře transformerů. .. pokračovat ve čtení