Granda lingvomodelo
Granda lingvomodelo (angle Large language model, LLM) estas speco de modelo de maŝina lernado dezajnita por taskoj de natur-lingva prilaborado kiel lingvo-generado. LLM-oj estas lingvomodeloj kun multaj parametroj, kaj estas trejnitaj kun mem-kontrolita lernado sur vasta kvanto da tekstoj.
La plej grandaj kaj plej kapablaj LLM-oj estas generaj antaŭtrejnitaj transformiloj (GPT-oj). Modernaj modeloj povas esti fajnagorditaj por specifaj taskoj aŭ gviditaj per prompta inĝenierado.[1] Tiuj modeloj akiras prognozan potencon koncerne sintakson, semantikon, kaj ontologiojn[2] enecajn en homlingvaj korpusoj, sed ili ankaŭ heredas malprecizaĵojn kaj biasojn ĉeestantajn en la datenoj en kiujn ili estas trejnitaj.[3]
Referencoj
- ↑ Brown, Tom B. (Dec 2020). “Language Models are Few-Shot Learners”, Advances in Neural Information Processing Systems 33, p. 1877–1901. Alirita 2023-03-14..
- ↑ Fathallah, Nadeen, "NeOn-GPT: A Large Language Model-Powered Pipeline for Ontology Learning", Extended Semantic Web Conference 2024, 2024-05-26.
- ↑ (2022) “Human Language Understanding & Reasoning”, Daedalus 151 (2), p. 127–138. doi:10.1162/daed_a_01905. Alirita 2023-03-09..
Vidu ankaŭ
|