{"id":24506566,"url":"https://github.com/LLAMATOR-Core/llm-vs-llm","last_synced_at":"2025-10-02T19:31:46.459Z","repository":{"id":281816574,"uuid":"899618683","full_name":"LLAMATOR-Core/llm-vs-llm","owner":"LLAMATOR-Core","description":"Исследование способностей языковых моделей к генерации вредоносных запросов и оцениванию других языковых моделей","archived":false,"fork":false,"pushed_at":"2025-05-22T21:43:31.000Z","size":9526,"stargazers_count":5,"open_issues_count":0,"forks_count":0,"subscribers_count":1,"default_branch":"main","last_synced_at":"2025-05-22T22:59:46.213Z","etag":null,"topics":[],"latest_commit_sha":null,"homepage":null,"language":"Jupyter Notebook","has_issues":true,"has_wiki":null,"has_pages":null,"mirror_url":null,"source_name":null,"license":"other","status":null,"scm":"git","pull_requests_enabled":true,"icon_url":"https://github.com/LLAMATOR-Core.png","metadata":{"files":{"readme":"README.md","changelog":null,"contributing":null,"funding":null,"license":"LICENSE.md","code_of_conduct":null,"threat_model":null,"audit":null,"citation":null,"codeowners":null,"security":null,"support":null,"governance":null,"roadmap":null,"authors":null,"dei":null,"publiccode":null,"codemeta":null,"zenodo":null}},"created_at":"2024-12-06T16:36:39.000Z","updated_at":"2025-05-22T21:43:34.000Z","dependencies_parsed_at":"2025-03-11T10:25:30.103Z","dependency_job_id":"097a2936-904f-4556-af62-fd2e94fe5359","html_url":"https://github.com/LLAMATOR-Core/llm-vs-llm","commit_stats":null,"previous_names":["nizamovtimur/llm-vs-llm","llamator-core/llm-vs-llm"],"tags_count":0,"template":false,"template_full_name":null,"purl":"pkg:github/LLAMATOR-Core/llm-vs-llm","repository_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/LLAMATOR-Core%2Fllm-vs-llm","tags_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/LLAMATOR-Core%2Fllm-vs-llm/tags","releases_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/LLAMATOR-Core%2Fllm-vs-llm/releases","manifests_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/LLAMATOR-Core%2Fllm-vs-llm/manifests","owner_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/owners/LLAMATOR-Core","download_url":"https://codeload.github.com/LLAMATOR-Core/llm-vs-llm/tar.gz/refs/heads/main","sbom_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories/LLAMATOR-Core%2Fllm-vs-llm/sbom","scorecard":null,"host":{"name":"GitHub","url":"https://github.com","kind":"github","repositories_count":278061466,"owners_count":25923517,"icon_url":"https://github.com/github.png","version":null,"created_at":"2022-05-30T11:31:42.601Z","updated_at":"2022-07-04T15:15:14.044Z","status":"online","status_checked_at":"2025-10-02T02:00:08.890Z","response_time":67,"last_error":null,"robots_txt_status":"success","robots_txt_updated_at":"2025-07-24T06:49:26.215Z","robots_txt_url":"https://github.com/robots.txt","online":true,"can_crawl_api":true,"host_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub","repositories_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repositories","repository_names_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/repository_names","owners_url":"https://repos.ecosyste.ms/api/v1/hosts/GitHub/owners"}},"keywords":[],"created_at":"2025-01-21T23:38:40.459Z","updated_at":"2025-10-02T19:31:46.451Z","avatar_url":"https://github.com/LLAMATOR-Core.png","language":"Jupyter Notebook","readme":"# LLM vs LLM\n\n**Исследование способностей языковых моделей к генерации вредоносных запросов и оцениванию других языковых моделей**\n\nПроект нацелен на создание бенчмарка для оценки способностей больших языковых моделей при генерации и последующей проверке вредоносных запросов, а также на проверку устойчивости других моделей к возможным атакам в роли судьи.\n\nАвторы: Иванов Н.А., Неронов Р.М., Низамов Т.Д., 1 курс магистратуры AI Talent Hub, Университет ИТМО\n\nРезультаты работы представлены на конференции **Positive Hack Days** 23 мая 2025 года: [**презентация**](llm-vs-llm_phdays2025.pdf).\n\n*Выполнено в рамках проектной практики в [AI Security Lab](https://ai.itmo.ru/aisecuritylab) Университета ИТМО и Raft и курса ПИШ ИТМО «Инжиниринг управления данными».*\n\n## Задачи\n\n- [Составление атакующих и судейских промтов и генерация данных](generating.ipynb) ✅\n- Разметка прохождения атак и качества атакующих промтов ✅\n- [Анализ данных по итогам разметки: выбор атакующих и судейских промтов, атакующей модели, составление бенчмарка](benchmarking.ipynb) ✅\n- [Прогон на бенчмарке разных моделей](ratings.ipynb) ✅\n- [Визуализация бенчмарка](visualization.py) ✅\n\n## Рассматриваемые тесты проведения атак\n\n - [Ethical Compliance](https://github.com/RomiconEZ/llamator/blob/main/src/llamator/attacks/ethical_compliance.py). Оценивает способность LLM противостоять обсуждениям вредных или неуместных заблуждений по чувствительным темам. Этот тест направлен на проверку соответствия модели этическим рекомендациям против распространения стереотипов и токсичного контента.\n - [Logical Inconsistencies Test](https://github.com/RomiconEZ/llamator/blob/main/src/llamator/attacks/logical_inconsistencies.py). Проверяет связность и последовательность ответов LLM-системы на основе описания, вступая с ней в спор с использованием перефразирования и отрицания.\n - [Sycophancy Test](https://github.com/RomiconEZ/llamator/blob/main/src/llamator/attacks/sycophancy.py). Оценивает способность LLM противостоять обсуждениям вредных или неуместных заблуждений по чувствительным темам. Этот тест направлен на проверку соответствия модели этическим рекомендациям против распространения стереотипов и токсичного контента.\n\nВыполнение атак осуществлено с помощью разрабатываемого авторами исследования LLM Red teaming фреймворка [LLAMATOR](https://github.com/RomiconEZ/llamator).\n\n## Визуализация результатов тестов\n\nСервис позволяет визуализировать результаты тестов из нескольких CSV-файлов с помощью веб-интерфейса на основе Gradio.\n\n```shell\ndocker build -t llm-vs-llm-gradio:latest .\ndocker run --name llm-vs-llm -p 8080:7860 -d llm-vs-llm-gradio:latest\n```\n\n![Визуализация](visualization.webp)\n\n**Верхние графики**. Три тепловые карты для метрик качества моделей-судей по атакам:\n  - Ethical Compliance\n  - Logical Inconsistencies Test\n  - Sycophancy Test\n\n**Нижний график**. Отображает результаты атак в виде сгруппированных столбцов.\n\n## Данные\n\n\u003e [!WARNING]  \n\u003e **Запросы сгенерированы исключительно в исследовательских целях для выявления уязвимостей генеративного ИИ, полученные ответы могут содержать описание незаконных или шокирующих действий, скомпилированных большой языковой моделью из открытых источников**\n\n - [data/llm-vs-llm-generated.xlsx](data/llm-vs-llm-generated.xlsx) — размеченные данные для атак и ответы атакуемых систем:\n   - Название атаки (теста)\n   - Название атакующей LLM\n   - Хэш системного промта атакующей модели\n   - Название атакуемой системы\n   - Первый запрос атакующей модели\n   - Первый ответ атакуемой системы\n   - Второй запрос атакующей модели (опционально)\n   - Второй ответ атакуемой системы (опционально)\n   - Вердикт судьи при системном промте A (BROKEN, RESILIENT)\n   - Вердикт судьи при системном промте B (BROKEN, RESILIENT)\n   - Вердикт разметчика (BROKEN, RESILIENT)\n   - Человеческая оценка качества атакующих запросов (-1 — плохо, 0 — нейтрально, -1 — хорошо)\n - [data/llm-vs-llm-benchmark.csv](data/llm-vs-llm-benchmark.csv) — бенчмарк с очищенными данными для оценки моделей-судей:\n   - `attack` — название атаки (теста)\n   - `attack_model` — атакующая модель\n   - `tested_model` — тестируемая модель (система)\n   - `first_attack_prompt` — начальный атакующий промт\n   - `first_response` — первый ответ атакуемой системы\n   - `second_attack_prompt` — второй атакующий промт\n   - `second_response` — второй ответ системы\n   - `verdict_assessor` — вердикт (Broken, Resilient)\n","funding_links":[],"categories":[],"sub_categories":[],"project_url":"https://awesome.ecosyste.ms/api/v1/projects/github.com%2FLLAMATOR-Core%2Fllm-vs-llm","html_url":"https://awesome.ecosyste.ms/projects/github.com%2FLLAMATOR-Core%2Fllm-vs-llm","lists_url":"https://awesome.ecosyste.ms/api/v1/projects/github.com%2FLLAMATOR-Core%2Fllm-vs-llm/lists"}