ai
Transformer
Transformer je architektura neuronové sítě představená v článku „Attention Is All You Need" z roku 2017, která zásadně změnila zpracování přirozeného jazyka. Na rozdíl od rekurentních sítí zpracovává transformery celé sekvence paralelně pomocí mechanismu self-attention, což umožňuje efektivně zachytit závislosti na velké vzdálenosti. Prakticky všechny moderní LLM, včetně GPT a Claude, jsou postaveny na architektuře transformer.
#ai