Granda lingvomodelo

Fludiagramo

Granda lingvomodelo (angle Large language model, LLM) estas speco de modelo de maŝina lernado dezajnita por taskoj de natur-lingva prilaborado kiel lingvo-generado. LLM-oj estas lingvomodeloj kun multaj parametroj, kaj estas trejnitaj kun mem-kontrolita lernado sur vasta kvanto da tekstoj.

La plej grandaj kaj plej kapablaj LLM-oj estas generaj antaŭtrejnitaj transformiloj (GPT-oj). Modernaj modeloj povas esti fajnagorditaj por specifaj taskoj aŭ gviditaj per prompta inĝenierado.[1] Tiuj modeloj akiras prognozan potencon koncerne sintakson, semantikon, kaj ontologiojn[2] enecajn en homlingvaj korpusoj, sed ili ankaŭ heredas malprecizaĵojn kaj biasojn ĉeestantajn en la datenoj en kiujn ili estas trejnitaj.[3]

Referencoj

  1. Brown, Tom B. (Dec 2020). “Language Models are Few-Shot Learners”, Advances in Neural Information Processing Systems 33, p. 1877–1901. Alirita 2023-03-14.. 
  2. Fathallah, Nadeen, "NeOn-GPT: A Large Language Model-Powered Pipeline for Ontology Learning", Extended Semantic Web Conference 2024, 2024-05-26.
  3. (2022) “Human Language Understanding & Reasoning”, Daedalus 151 (2), p. 127–138. doi:10.1162/daed_a_01905. Alirita 2023-03-09.. 

Vidu ankaŭ