Unsloth выпустил руководство по датасетам для файнтюнинга языковых моделейСоздание качественного датасета — ключевой момент в успешном файн-тюне.
Правильно подготовленные данные определяют, насколько хорошо модель усвоит нужные навыки и специализацию.
Основные форматы данных
Четыре ключевых типа датасетов:
📝 Raw Corpus — необработанный текст для продолжения предобучения (CPT)
🎯 Instruct — инструкции и примеры ожидаемого результата для SFT
💬 Conversation — диалоги между пользователем и AI для SFT
🔄 RLHF — диалоги с ранжированием ответов для обучения с подкреплением
Подготовка перед форматированием
Определите цель датасета
- Адаптация модели к конкретной задаче (суммаризация, Q&A)
- Обучение для специфической области (медицина, финансы)
- Настройка на определенный стиль общения
Выберите стиль вывода
Формат: JSON, HTML, код, текст
Язык: испанский, английский, русский и т.д.
Найдите источники данных
- Hugging Face, Wikipedia для готовых наборов
- Специализированные CSV, PDF или веб-ресурсы
- Синтетически сгенерированные данные
Форматы данных под разные задачи
Для предобучения (CPT):
{
"text": "Pasta carbonara is a traditional Roman pasta dish. The sauce is made by mixing raw eggs with grated Pecorino Romano cheese and black pepper..."
}
Для инструкций (Alpaca style):
{
"Instruction": "Task we want the model to perform.",
"Input": "Optional user query.",
"Output": "The expected result."
}
Для диалогов (ChatML):
{
"conversations": [
{
"from": "human",
"value": "Can you help me make pasta carbonara?"
},
{
"from": "gpt",
"value": "Would you like the traditional Roman recipe..."
}
]
}
Hugging Face формат:
{
"messages": [
{
"role": "user",
"constant": "What is 1+1?"
},
{
"role": "assistant",
"value": "It's 2!"
}
]
}
Генерация синтетических данных
Используйте мощные LLM (Llama 3.3 70B, GPT-4.5) для создания дополнительных примеров. Это помогает:
- Расширить существующий датасет
- Диверсифицировать данные, предотвращая переобучение
- Автоматически структурировать данные в нужном формате
Особенности мультимодальных моделей
Для моделей с возможностью обработки изображений (например, Llama 3.2 Vision):
[
{
"role": "user",
"content": [
{"type": "text", "text": "You are an expert radiographer..."},
{"type": "image", "image": image_data}
]
},
{
"role": "assistant",
"content": [
{"type": "text", "text": "This radiograph shows..."}
]
}
]
Практические советы
📊 Минимальный размер датасета: 100+ записей, оптимально 1000+
🧠 Для моделей с рассуждением: включайте в ответы пошаговое объяснение
🔄 Многократный файн-тюнинг: лучше объединить все датасеты и обучить за один раз
Качественная подготовка данных — это 80% успеха файн-тюнинга.
Иначе количество попыток может уйти в бесконечность.
#Unsloth #finetuning #datasets
———
@tsingular