Репозиторий Sisyphus
Последнее обновление: 1 октября 2023 | Пакетов: 18631 | Посещений: 37561794
en ru br
Репозитории ALT

Группа :: Науки/Компьютерные науки
Пакет: llama.cpp

 Главная   Изменения   Спек   Патчи   Sources   Загрузить   Gear   Bugs and FR  Repocop 

Текущая версия: 20230728-alt1
Время сборки: 29 июля 2023, 22:04 ( 39.0 недели назад )
Размер архива: 1205.07 Kb

Домашняя страница:   https://github.com/ggerganov/llama.cpp

Лицензия: MIT
О пакете: Inference of LLaMA model in pure C/C++
Описание:

Plain C/C++ implementation (of inference of LLaMA model) without
dependencies. AVX, AVX2 and AVX512 support for x86 architectures.
Mixed F16/F32 precision. 4-bit, 5-bit and 8-bit integer quantization
support. Runs on the CPU. Supported models:

   LLaMA
   LLaMA 2
   Alpaca
   GPT4All
   Chinese LLaMA / Alpaca
   Vigogne (French)
   Vicuna
   Koala
   OpenBuddy (Multilingual)
   Pygmalion 7B / Metharme 7B
   WizardLM
   Baichuan-7B and its derivations (such as baichuan-7b-sft)

NOTE 1: You will need to:

 pip3 install -r /usr/share/llama.cpp/requirements.txt

for data format conversion scripts to work.

NOTE 2:
 MODELS ARE NOT PROVIDED. You need to download them from original
 sites and place them into "./models" directory.

 For example, LLaMA downloaded via public torrent link is 220 GB.

Overall this is all raw and experimental, no warranty, no support.

Текущий майнтейнер: Vitaly Chikunov

Список всех майнтейнеров, принимавших участие
в данной и/или предыдущих сборках пакета:

Список rpm-пакетов, предоставляемый данным srpm-пакетом:

    ACL:
       
      дизайн и разработка: Vladimir Lettiev aka crux © 2004-2005, Andrew Avramenko aka liks © 2007-2008
      текущий майнтейнер: Michael Shigorin