Vícevrstvý perceptron

Architektura MLP

Vícevrstvý perceptron (Multi-Layer Perceptron, MLP) je dopředná umělá neuronová síť. MLP se skládá nejméně ze tří vrstev perceptronů: vstupní vrstvy, skryté vrstvy a výstupní vrstvy. MLP využívá k trénování techniku učením s učitelem, která se nazývá zpětné šíření chyby. Více vrstev a spojitá přenosová funkce (sigmoida) odlišují MLP od Perceptronu. Dokáže rozlišit data, která nejsou lineárně oddělitelná. Obecně pracuje jako aproximátor libovolné vektorové funkce (Kolmogorův teorém)[1], tj. během učení provádí nelineární regresi. Používá se k řešení širokého spektra úloh, jako je rozpoznávání, klasifikace, diagnostika či predikce, lze jej využít i ke kompresi a kryptování dat (viz autoenkodér).

Reference

  1. HORNIK, K. Multilayer feedforward networks are universal approximators, Neural Networks 2 (5). [s.l.]: Elsevier, 1989. 8 s. (anglicky) 

Literatura

  • KŘIVAN, Miloš. Umělé neuronové sítě. [s.l.]: Nakladatelství Oeconomica, Vysoká škola ekonomická v Praze 77 s. Dostupné online. ISBN 978-80-245-2420-7. 

Média použitá na této stránce

Schéma MLP.png
Autor: Miloš Křivan, Licence: CC BY-SA 4.0
Schéma MLP