gromdimon commited on
Commit
c30e598
·
verified ·
1 Parent(s): df71958

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +82 -1
README.md CHANGED
@@ -6,12 +6,93 @@ language:
6
  inference: false
7
  tags:
8
  - art
 
 
9
  ---
10
 
11
  # beLLM
12
 
 
13
  The beLLM or `belarusian Large Language Model (LLM)` is a pretrained generative language model for the Belarusian language. It is based on the previous work
14
  of [RuPoemGPT](https://github.com/gromdimon/ml-random/tree/master/rupoemgpt). The model was trained on a collection of belarusian poems and prose, which
15
  were collected from different sources.
16
 
17
- For more information about beLLM, please refer to [github-repo](https://github.com/gromdimon/beLLM)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6
  inference: false
7
  tags:
8
  - art
9
+ - bigram-language-model
10
+ - text-generation
11
  ---
12
 
13
  # beLLM
14
 
15
+ ## Model Description
16
  The beLLM or `belarusian Large Language Model (LLM)` is a pretrained generative language model for the Belarusian language. It is based on the previous work
17
  of [RuPoemGPT](https://github.com/gromdimon/ml-random/tree/master/rupoemgpt). The model was trained on a collection of belarusian poems and prose, which
18
  were collected from different sources.
19
 
20
+ For more information about beLLM, please refer to [github-repo](https://github.com/gromdimon/beLLM).
21
+
22
+ ### Intended Use
23
+ This model is intended for natural language generation tasks, such as creative writing assistance or text completion.
24
+
25
+ ### Limitations and Bias
26
+ The model was trained just on 10mb of data, so it's very biased and very limited.
27
+
28
+ ## Training and Evaluation Data
29
+ The dataset was collected from different sources and manually preprocessed. It contains over 9.5 million characters and is available on the [github-repo](https://github.com/gromdimon/beLLM). The dataset includes the following sources:
30
+
31
+ - [Belaruskaja Palichka](https://knihi.com/)
32
+ - [Ejka](https://ejka.ru/)
33
+ - [LitBel](https://lit-bel.org/)
34
+ - [RuLit](https://www.rulit.me/)
35
+ - [Stihi.by](https://stihi.by/)
36
+ - [BelSputnik](https://bel.sputnik.by/)
37
+
38
+ Some of the authors included in the dataset:
39
+ - Maxim Tank (Максім Танк)
40
+ - Yanka Kupala (Янка Купала)
41
+ - Yakub Kolas (Якуб Колас)
42
+ - Maxim Bogdanovich (Максім Багдановіч)
43
+ - Vasyl Bykov (Васіль Быкаў)
44
+ - Francishak Bagushevich (Францішак Багушэвіч)
45
+ - Yanka Bryl (Янка Брыль)
46
+
47
+ ### Training Procedure
48
+ Hyperparameters for the training included:
49
+
50
+ ```
51
+ # # Hyperparameters
52
+ BATCH_SIZE = 32 # how many independent sequences will we process in parallel?
53
+ BLOCK_SIZE = 256 # what is the maximum context length for predictions?
54
+ MAX_ITERATIONS = 10000
55
+ EVALUATION_INTERVAL = 500
56
+ LEARNING_RATE = 4e-4
57
+ DEVICE = "cuda" if torch.cuda.is_available() else "cpu"
58
+ EVALUATION_ITERATIONS = 200
59
+ NUMBER_OF_EMBEDDINGS = 512
60
+ NUMBER_OF_HEADS = 8
61
+ NUMBER_OF_LAYERS = 8
62
+ DROPOUT = 0.0
63
+ # -----------
64
+ ```
65
+
66
+ After every 2000 epochs the weights were saved. You can find them in this repo. Every model has the following semantics: "model_<number_of_epochs>".
67
+
68
+ ### Evaluation Results
69
+ Currently the latest `model_9999.pt` can make following generations:
70
+
71
+ ```
72
+ Хапаць, дзе к попле можна
73
+ Займаць зрабіць.
74
+ Так маўчаў кашлянуць, зноў барадучыся словы, зноў трагічна і шум пачаў упалы, як дрыготкімі вушамі.
75
+ Габрыня пацалавала Ганна лаючася:
76
+ – Зноў не знаёмую, за штаб мне кашлянулася, што будзе член такі рэч, на колішняй Нёмане! Як трэба дагледзець кожным? Што з табой: вялікі год кашляніць будуць, колькі Яўхіма! Ну што ж, колькі хітры! І не горш за ўсіх! Хадзіць на вуліцы – нясіць ды, за важней! Заявіць – конь бароўскі, дахаты!.. Пад Куранятком!
77
+ – Го-га, дзела хадзіць па хатах! – Яўхім свой, жвавы, запярэчыла Яўхіма.
78
+ – Няма начы! Не трэба ведаць нікому! – неахвотна засмяялася за Зайчыка. – Пакуль не пішаш! На добры малы чалавек!
79
+ Ніякі нячас, канешне, чакаў маладых панылы дыялектар, у Петрака, вячэрам, у турме які яго раней.
80
+ «Э-е, аднак! Не, не ведаю, якая чаго гэта яна».
81
+ — А ты, хлопец, кажа! Хлопчыкі, хлопчыкі! От хлопчыкі!
82
+ — Гэта ўжо толькі добра ведаюць, што. Найшла сушчэня і на гарышчы месяцяцца ўволю, ці славакі турмаюць?
83
+ — Пад бокам, — скамандаваў ката, — прадаваў Брык.
84
+ Апошняя нібы набок ад яго ці здурнела, быццам адчуваючы сябе чаканне нешта сваім, хоць яна гаварыла.
85
+ Дзёмчыхі неўпрыкмет пагорквалі з вачэй сетку. Ён магла дастаць з роспаччу астраўкаю трохпрыбы любіў адным ліхам, заслугачу было такое, што ж была пры сабе Лена такая грамада, якімі былі бліжэй да ўсіх магіл часам дабраўся.
86
+ — А хіба ён жа смуглы? — спытала яна.
87
+ — Выглядаў бы, каб аб нашым такім ваенным час ісці стаў і маладзіца не чапала. Толькі лапамі ўжо зусім недадзеленым быў незразумелы, але калі на Івана зноў кароценька прасіла.
88
+ — Вось што, барыс падкінуў? — спытаўся нарэшце, як змоўкла з вераспіскай у кішэню, прыпаўшы: — Выходзіць яна ўжо няма для яе! Годзе за бацьку. Ідзіце, a людзі стараліся бацькамі. Высадзіце, што ўсе роўныя!
89
+ Яна лёгенька штанула: Джулія дагоніць — барадаты ад шмат штабе чалавекі. Яна ісці маці не дагоніць, а яна не адчулася. Ён баяўся збірацца ў горад. Дзяўчыны яшчэ больш не былі, каб у печы, вядома, ніколі, яна не гаварыла. Ніколі
90
+ ```
91
+
92
+ ## Usage
93
+ For usage and other information, please refer to [github-repo](https://github.com/gromdimon/beLLM).
94
+
95
+ ## Source and Contributions
96
+ This model was developed by [Dzmitry Hramyka](https://github.com/gromdimon). Contributions and feedback are welcome.
97
+
98
+