GGUF - формат модели. Содержит тензоры и метаданные. Имеет отношение к llama.cpp
LoRA - low rank adaptation, общая идея, что мы дёшево дообучаем модель. Матрица весов новой сети вычитается из матрицы весов старой сети и мы ищем эту матрицу в виде произведения матриц малой размерности (отсюда дешевизна). Вроде как связано с библиотекой peft? Возможные ссылки:
https://pikabu.ru/story/obuchenie_model ... ra_9993280 , https://yandex.ru/video/preview/4243594879396885198
Эпоха (epoch) - цикл в ходе которого все данные обучающей выборки обрабатываются один раз. По идее это и есть шаг обучения, но ввиду ограниченных возможностей оборудования данные делятся на пакеты (batch), каждый из которых составляют лишь ничтожную долю обучающей выборки.
Адаптер (adapter-only LLM) - вместо полного дообучения или тонкой настройки всех параметров модели для специфической задачи или домена, дообучаются только маленькие дополнительные модули, называемые адаптерами. Эти адаптеры вставляются между уже существующими слоями предобученной модели.
Распознавание именованных сущностей(NER, named entity recognition) - процесс выделения имён из текста. См., напр, https://habr.com/ru/companies/sberbank/articles/649609/
Обучение с несколькими примерами (few-shot learning) - вариант использования ИИ-продукта, при котором он на основании небольшого количества примеров способен научиться классифицировать объекты
Классификация без обучения (zero-shot classification) - способность нейросети классифицировать объекты из внутренних знаний, без всяких примеров (в меру моего понимания, см. https://huggingface.co/tasks/zero-shot-classification