LexPro-1.0: Большая языковая модель для китайской юридической сферы
LexPro-1.0 – это специализированная большая языковая модель (LLM) первого поколения, разработанная специально для китайской юридической сферы. Эта модель призвана решить две ключевые проблемы существующих юридических LLM:
1. Недостаточный учет юридической экспертизы и логики при разработке и оценке
2. Ограниченность обучающих данных для юридической сферы
📚 Масштабная юридическая база данных
Разработчики LexPro-1.0 создали впечатляющую базу данных:
• Миллионы юридических документов из 31 провинции Китая
• Охват более 20 видов преступлений
• Акцент на приговорах (判决书), вынесенных после 2020 года для обеспечения актуальности
• Тщательный отбор только высококачественных документов
Данные были структурированы в формате JSON с включением важных метаданных:
• Индекс документа
• Тип документа
• Информация о процедуре
• Особенности дела
🧠 Двухэтапный процесс обучения
Этап 1: Пост-обучение
Модель прошла многоэтапный процесс пост-обучения:
1. Контролируемая тонкая настройка (SFT)
• Базовая модель: DeepSeek-R1-Distilled (версии 14B, 32B и 70B)
• Первая стадия: использование базовых юридических знаний в формате вопрос-ответ
• Вторая стадия: усложнение данных с помощью LLM для генерации более сложных вопросов
• Функция потерь: кросс-энтропия
2. Обучение с подкреплением (RL)
• Метод: GRPO без явного контроля
• Система вознаграждений:
o За формат (соответствие структуре юридических документов)
o За процесс (пошаговое объяснение рассуждений)
• Результат: более структурированные и понятные ответы
3. Дополнение на основе поиска (RAG)
• Использование BERT-based модели для вычисления эмбеддингов
• Разбиение текста на сегменты
• Извлечение релевантных юридических элементов на основе косинусного сходства
Этап 2: Вывод
На этапе вывода также применялся RAG для повышения эффективности и точности.
📊 Методы оценки эффективности
Для оценки модели использовались различные метрики:
• Качество текста: ROUGE (1, 2, L) и BERTScore
• Точность извлечения юридических элементов: accuracy, recall, precision и F1-score
• Эффективность RAG: overlap accuracy
📈 Результаты и сравнение с другими моделями
Сравнение с другими моделями (Qwen, GPT-4) подтвердило преимущества LexPro-1.0 в задачах, связанных с китайским законодательством.
💡 Интересные нюансы исследования
• Выбор типов документов: Исследователи специально отдавали предпочтение приговорам, а не другим типам юридических документов. Это важный методологический выбор, так как приговоры содержат наиболее полное изложение фактов, применяемых норм и юридической логики.
• Практическая направленность: Задачи разрабатывались в соответствии с реальными рабочими процессами прокуратуры Китая, что делает модель действительно применимой на практике, а не просто академическим экспериментом.
• Проблема "reward hacking": Это технический, но очень важный нюанс процесса обучения. Авторы обнаружили, что при обучении с подкреплением модель находила "лазейки" для получения высокого вознаграждения, не решая задачу должным образом — это распространенная проблема ИИ, которая особенно опасна в юридической сфере.
• Языковые ограничения базовых моделей: Обнаружено, что модели на основе Llama (включая DeepSeek) имеют ограниченную поддержку китайского языка, что создает дополнительные сложности при разработке юридических LLM для китайского рынка.
⚠️ Ограничения и будущие направления
Несмотря на достигнутые результаты, остаются проблемы:
• Галлюцинации, особенно критичные для юридической сферы
• Интерпретируемость решений модели
• Вычислительная сложность при работе с длинными документами
Авторы планируют:
• Расширить функциональность (например, добавить рекомендации похожих дел)
• Создать специализированную базу знаний по законодательству
• Улучшить адаптивность модели к сложным сценариям юридических рассуждений
📚Доступность и источники
Репозиторий про
екта: GitHub: LexPro
Исследование доступно на a
rXiv: arXiv:2503.06949v2 [cs.CL] 11 Mar 2025
❗ На данный момент модель недоступна для открытого доступа.