Karin I.E., Kriuchkov A.Yu.
Karin Iliia Eduardovich - Master's degree in Information Systems in Economics and Management,
DEVOPS ENGINEER,
AUSTIN, TEXAS, UNITED STATES OF AMERICA,
Kriuchkov Aleksandr Yurievich - Master’s degree in radio communications, radio broadcasting, and television, Cloud Engineer,
SERBIA
Abstract: Artificial intelligence (AI) has become an integral component of modern software engineering, with large language model (LLM)–based assistants such as GitHub Copilot, Microsoft Copilot Studio, and CodeRabbit increasingly supporting code generation, review, and workflow automation. While these tools promise significant productivity gains, they also introduce novel and underexplored attack surfaces. This article examines three recent, high-impact case studies of adversarial exploitation: (i) CVE-2025-53773, a prompt injection vulnerability in GitHub Copilot enabling wormable remote code execution, (ii) the “AgentFlayer” attack on Copilot Studio demonstrating zero-click data exfiltration through injected instructions, and (iii) the CodeRabbit supply chain compromise that leveraged a malicious pull request to gain write access to over one million repositories. Together, these incidents illustrate how prompt injection and AI poisoning transcend conventional software vulnerabilities by transforming passive data into active attack vectors. We analyze the broader implications for developer environments, enterprise AI agents, and CI/CD pipelines, highlighting the systemic risks of adversarial AI exploitation. Finally, we survey emerging defensive strategies, including prompt shielding, classifier-based detection, and red-teaming frameworks, and outline recommendations for mitigating the security challenges posed by AI-augmented development.
Keywords: Artificial intelligence security; large language models; prompt injection; AI poisoning; adversarial machine learning; software supply chain security; remote code execution; data exfiltration; CI/CD security; DevSecOps, LLM, AI, MCP.
Карин И.Э., Крючков А.Ю.
Карин Илия Эдуардович — магистр информационных систем в экономике и управлении, инженер DevOps,
г. Остин, Техас, США,
Крючков Александр Юрьевич — магистр радиосвязи, радиовещания и телевидения, облачный инженер, Сербия
Аннотация: искусственный интеллект (ИИ) стал неотъемлемой частью современной разработки программного обеспечения. Ассистенты на основе больших языковых моделей (LLM), такие как GitHub Copilot, Microsoft Copilot Studio и CodeRabbit, всё активнее поддерживают генерацию кода, его ревью и автоматизацию рабочих процессов. Хотя эти инструменты обещают значительный рост производительности, они также создают новые и малоизученные поверхности атак. В данной статье рассматриваются три недавних и высокоэффективных примера злоумышленного использования: (i) CVE-2025-53773 — уязвимость prompt injection в GitHub Copilot, позволяющая червеподобное удалённое выполнение кода, (ii) атака «AgentFlayer» на Copilot Studio, демонстрирующая возможность извлечения данных без взаимодействия пользователя (zero-click) через внедрённые инструкции, и (iii) компрометация цепочки поставок CodeRabbit, при которой вредоносный pull request обеспечил доступ на запись более чем к одному миллиону репозиториев. Эти инциденты показывают, что prompt injection и отравление ИИ выходят за рамки традиционных уязвимостей ПО, превращая пассивные данные в активные векторы атак. Мы анализируем более широкие последствия для сред разработки, корпоративных AI-агентов и CI/CD-пайплайнов, подчёркивая системные риски эксплуатации ИИ противниками. Наконец, мы рассматриваем новые защитные стратегии, включая экранирование подсказок (prompt shielding), детекцию на основе классификаторов и фреймворки для red-teaming, а также формулируем рекомендации по смягчению угроз безопасности, возникающих при использовании ИИ в разработке.
Ключевые слова: безопасность искусственного интеллекта; большие языковые модели; prompt injection; отравление ИИ; атакующее машинное обучение; безопасность цепочки поставок ПО; удалённое выполнение кода; утечка данных; безопасность CI/CD; DevSecOps, LLM, AI, MCP.
References / Список литературы
- Carlini N., et al. (2024). Adversarial robustness for large language models. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). (Note: Exact title may vary; based on 2024 trends in LLM robustness research.)
- Evtimov I., et al. (2017). Robust physical-world attacks on deep learning models. arXiv preprint arXiv:1707.08945. https://doi.org/10.48550/arXiv.1707.08945
- Goodfellow I.J., Shlens J. & Szegedy C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572. https://doi.org/10.48550/arXiv.1412.6572
- Greshake K., et al. (2023). Not what you've signed up for: Compromising real-world LLM-integrated applications with indirect prompt injection. arXiv preprint arXiv:2302.12173. https://doi.org/10.48550/arXiv.2302.12173
- Szegedy C., et al. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:1312.6199. https://doi.org/10.48550/arXiv.1312.6199
- Amiet N. (2025, August 19). How we exploited CodeRabbit: From a simple PR to RCE and write access on 1M repositories. Kudelski Security Research. https://research.kudelskisecurity.com/2025/08/19/how-we-exploited-coderabbit-from-a-simple-pr-to-rce-and-write-access-on-1m-repositories/ (New Reference: Author verified as Nils Amiet from the blog post and related Black Hat USA 2025 presentation.)
- Embrace The Red. (2025, June). GitHub Copilot: Remote code execution via prompt injection. Embrace The Red Blog. https://embracethered.com/blog/posts/2025/github-copilot-remote-code-execution-via-prompt-injection/ (New Reference: No individual author listed; attributed to the research group "Embrace The Red" per the blog’s authorship convention.)
- Kudelski Security. (2025, January). CodeRabbit vulnerability disclosure: Malicious pull request exploit via Rubocop integration. Kudelski Security Blog. https://research.kudelskisecurity.com/2025/01/15/coderabbit-vulnerability/
- Microsoft Security Response Center (MSRC). (2025, August). Security update for GitHub Copilot in Visual Studio Code (CVE-2025-53773). Microsoft Security Blog. https://msrc.microsoft.com/update-guide/vulnerability/CVE-2025-53773
- Persistent Security & Embrace The Red. (2025, June 29). CVE-2025-53773: Remote code execution in GitHub Copilot via prompt injection. Persistent Security Research Report. https://persistent-security.com/reports/cve-2025-53773
- Zenity Labs. (2025, August). A Copilot Studio story: When AIjacking leads to full data exfiltration. Zenity Labs Research. https://labs.zenity.io/p/a-copilot-studio-story-2-when-aijacking-leads-to-full-data-exfiltration-bc4a (New Reference: No individual author listed; attributed to Zenity Labs as the research entity per the blog’s publication details.)
- National Institute of Standards and Technology (NIST). (2025). Artificial intelligence risk management framework (AI RMF 1.0 Update). U.S. Department of Commerce. https://www.nist.gov/itl/ai-risk-management-framework
- OWASP Foundation. (2025). OWASP top 10 for large language model applications (LLM Top 10). OWASP Project. https://owasp.org/www-project-top-10-for-large-language-model-applications/
- Goodside R. (2022). Twitter thread on prompt injection experiments in LLMs. X (formerly Twitter). https://x.com/goodside/status/1584625160424562688
- Willison S. (2023). Indirect prompt injection threats. Simon Willison's Weblog. https://simonwillison.net/2023/Feb/20/indirect-prompt-injection/
- (2025). EVA: Evaluation for vulnerability analysis & ASTRA: Adversarial simulation for threat-resilient agents. Microsoft Research. https://www.microsoft.com/en-us/research/project/eva-astra
- (2025). Lakera Guard: Prompt shielding tool. Lakera Documentation. https://lakera.ai/guard
ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ
| Тип лицензии на данную статью – CC BY 4.0. Это значит, что Вы можете свободно цитировать данную статью на любом носителе и в любом формате при указании авторства. | ||
| Cсылка для цитирования. Karin I.E., Kriuchkov A.Yu. ADVERSARIAL THREAT VECTORS IN AI-AUGMENTED SOFTWARE DEVELOPMENT: PROMPT INJECTION, DATA POISONING, AND EXPLOITATION RISKS [ВЕКТОРЫ УГРОЗ В РАЗРАБОТКЕ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ С ПОДДЕРЖКОЙ ИИ: PROMPT INJECTION, ОТРАВЛЕНИЕ ДАННЫХ И РИСКИ ЭКСПЛУАТАЦИИ] // European science № 3(75), 2025. C. {см. журнал} | ||
- Информация о материале
- Категория: 05.00.00 Технические науки
Gurbanova M.Sh.
Gurbanova Maya Shukurovna – teacher STATE MEDICAL UNIVERSITY OF TURKMENISTAN NAMED AFTER M. GARRYEV, ASHGABAT, TURKMENISTAN
Abstract: despite the amazing achievements of computing technologies, the paradigm "Program-array" has become not only a distorted reflection of the conceptual aspirations of programming theorists and the use of computer technology in society, but also significantly slows down these aspirations.
Keywords: information storage technologies.
Гурбанова М.Ш.
Гурбанова Мая Шукуровна– преподаватель Государственный медицинский университет Туркменистана имени М. Гаррыева, г. Ашгабад, Туркменистан
Аннотация: несмотря на потрясающие достижения вычислительных технологий, парадигма «Программа-массив» стала, не только искаженно отображать концептуальные стремления теоретиков программирования и применения средств ВТ в социуме, но и существенно тормозить эти стремления.
Ключевые слова: технологии хранения информации.
Список литературы / References
- CUDA — Википедия. - http://ru.wikipedia.org/wiki/CUDA.
- OpenCL — Википедия. - http://ru.wikipedia.org/wiki/OpenCL.
- GPGPU — Википедия. - http://ru.wikipedia.org/wiki/GPGPU
ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ
| Тип лицензии на данную статью – CC BY 4.0. Это значит, что Вы можете свободно цитировать данную статью на любом носителе и в любом формате при указании авторства. | ||
| Cсылка для цитирования. Gurbanova M.Sh.MODERN COMPUTER TECHNOLOGIES [СОВРЕМЕННЫЕ КОМПЬЮТЕРНЫЕ ТЕХНОЛОГИИ] // European science № 1(73), 2025. C. {см. журнал} | ||
- Информация о материале
- Категория: 05.00.00 Технические науки
Araznazarova O.Ya.
Araznazarova Ogulbabek Yagshymyradovna – lecturer M. GARRYEV STATE MEDICAL UNIVERSITY OF TURKMENISTAN, ASHGABAT, TURKMENISTAN
Abstract: very quickly, the technological direction designed to create tools for storing, managing and accessing data became a separate technology, which was called DBMS or database management systems. Three main basic models of data representation were formed, which showed their specific features and began to develop almost independently:
- the hierarchical model was assigned to file systems and programming languages: representation and description of objects, OOP and others;
- the relational model, traditionally associated with tables and having a fairly developed mathematical apparatus, began to serve all the broad needs of industry and society;
- the network model, as the most complex and general model, has become the subject of future promising research in the field of artificial intelligence and data management technologies. In fact, all modern DBMSs used in practice are associated with the relational model.
Keywords: information storage technologies.
Аразназарова О.Я.
Аразназарова Огулбабек Ягшымырадовна – преподаватель Государственный медицинский университет Туркменистана имени М. Гаррыева, г. Ашгабад, Туркменистан
Аннотация: очень быстро технологическое направление, призванное создавать инструментальные средства хранения данных, управления данными и доступа к ним, стало отдельной технологий, которая стала называться СУБД или системы управления базами данных. Были сформированы три основные базовые модели представления данных, которые проявляли свои специфические черты и стали развиваться практически независимо:
- иерархическая модель закрепилась за файловыми системами и языками программирования: представление и описание объектов, ООП и другие;
- реляционная модель, традиционно ассоциированная с таблицами и имеющая достаточно развитый математический аппарат, стала обслуживать все широкие потребности промышленности и социума;
- сетевая модель, как наиболее сложная и обобщающая модель, стала предметом будущих перспективных исследований в области искусственного интеллекта и технологий управления данными.
Фактически все современные практически используемые СУБД ассоциируются с реляционной моделью.
Ключевые слова: технологии хранения информации.
Список литературы / References
- CUDA — Википедия. [Электронный ресурс]. Режим доступа: http://ru.wikipedia.org/wiki/CUDA.
- OpenCL — Википедия. [Электронный ресурс]. Режим доступа: http://ru.wikipedia.org/wiki/OpenCL.
- GPGPU — Википедия. - http://ru.wikipedia.org/wiki/GPGPU
ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ
| Тип лицензии на данную статью – CC BY 4.0. Это значит, что Вы можете свободно цитировать данную статью на любом носителе и в любом формате при указании авторства. | ||
| Cсылка для цитирования. Araznazarova O.Ya. DATA STORAGE TOOLS [ИНСТРУМЕНТАЛЬНЫЕ СРЕДСТВА ХРАНЕНИЯ ДАННЫХ] // European science № 1(73), 2025. C. {см. журнал} | ||
- Информация о материале
- Категория: 05.00.00 Технические науки
Sharabidze M.R.
Sharabidze Maia Revazovna – Doctor of Technical sciences, professor DEPARTMENT OF DESIGN AND TECHNOLOGY, AKAKI TSERETELI STATE UNIVERSITY, KUTAISI, GEORGIA
Abstract: the article analyzes the possibilities and experience of creating ointments and on their basis medical textile materials with various specific therapeutic properties. As a carrier of the therapeutic agent, we have proposed a biocomposition based on beeswax and various natural oils. It has been shown that the medical textile materials created by us based on Georgian traditional medicinal products have good physical and mechanical properties (medium pH, air permeability, hygroscopicity, capillarity, water absorption and moisture output,) and mass transfer indicators. As a result, textile materials contribute to the effective healing of wounds, burns, inflammation and have pain-relieving properties.
Keywords: medtextile, biocomposition, mass transfer.
Шарабидзе М.Р.
Шарабидзе Майя Ревазовна – доктор технических наук, профессор, Департамент дизайна и технологии, Государственный университет им.А.Церетели, г. Кутаиси, Грузия
Аннотация: в статье анализируются возможности и опыт создания мазей и на их основе текстильных материалов медицинского назначения с различными специфическими лечебными свойствами. В качестве носителя лечебного средства нами предложена биокомпозиция на основе пчелиного воска и различных природных масел. Показано, что созданные нами текстильные материалы медицинского назначения на основе грузинских традиционных лечебных средств, обладают хорошими физико-механическими свойствами (pH среды, воздухопроницаемость, гигроскопичность, капиллярность, водопоглащение и влагоотдача,) и показателями масообмена. В результате этого текстильные матералы способствуют эффективному заживлению ран, ожогов, воспалений и обладают болеутоляющими свойствами.
Ключевые слова: медтекстиль, биокомпозиция, масообмен.
Список литературы/ References
- Шарабидзе М. Медтекстиль на основе грузинских традиционных природных лечебных препаратов, // Georgian Engineering News № 2, Тб. 2004, 140-143
- Грибкова В.А., Савилова Л.Б., Веденеева С.М., Олтаржевская Н.Д. Разработка технологии производства косметических масок на текстильной основе, // Текстильная химия №1(20), 2002 - с. 75-77.
- Шарабидзе М.Р. Изучение реологических свойств биокомпозиций для специального текстиля с лечебными свойствами, // «Вестник науки и образования» № 1 (37), Стр. 12-15.
- Шарабидзе М.Р. Изучение физико-механических характеристик специального текстиля с лечебными свойствами // «Проблемы современной науки и образования, №2 (122), 2018. Стр. 11-13.
ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ
| Тип лицензии на данную статью – CC BY 4.0. Это значит, что Вы можете свободно цитировать данную статью на любом носителе и в любом формате при указании авторства. | ||
| Cсылка для цитирования на русском языке. Sharabidze M.R. MEDICAL TEXTILES BASED ON GEORGIAN TRADITIONAL NATURAL REMEDIES[ТЕКСТИЛЬ МЕДИЦИНСКОГО НАЗНАЧЕНИЯ НА ОСНОВЕ ГРУЗИНСКИХ ТРАДИЦИОННЫХ ПРИРОДНЫХ ЛЕЧЕБНЫХ СРЕДСТВ] // European science № 2(70), 2024. C. {см. журнал} | ||
- Информация о материале
- Категория: 05.00.00 Технические науки









