mistral-sk-7b-v0.1
mistral-sk-7b-v0.1 je slovenská verzia generatívneho veľkého jazykového modelu Mistral-7b-v0.1 so 7 miliardami parametrov. Model bol vyvinutý v spolupráci Katedry kybernetiky a umelej inteligencie FEI TUKE; Centra spoločenských a psychologických vied SAV a Jazykovedného ústavu Ľ. Štúra SAV. Ide o základný predtrénovaný model, ktorý sa môže použiť na ďalšie ladenie alebo dotrénovanie.
- licencia: Apache 2.0
- trénovacie dáta: webový korpus Araneum Slovacum VII Maximum corpus
- Hugging Face karta
Tvorbu modelu podporili:
- Časť výskumu bola realizovaná s využitím výpočtovej infraštruktúry CINECA obstaranej vo výzve National Leonardo access call 2023 Centra spoločných činností SAV, v. v. i., a Národným superpočítačovým centrom.
- DiusAI a. s.