Научные публикации

scientific publication foto Журнал «European science» выходит раз в два месяца, 10 числа (ежемесячно уточняется). Следующий номер журнала № 4(76) 2025 г. Выйдет - 12.12.2025 г. Статьи принимаются 09.12.2025 г.

Мы рецензируем, редактируем, корректируем Ваши работы. Если редакция получит статью в последний день, есть большая вероятность того, что мы не успеем обработать Вашу статью. Убедительная просьба, если Вы хотите опубликоваться в ближайшем номере, не откладывайте отправку заявки. Потратьте одну минуту, заполните и отправьте заявку в Редакцию




Karin I.E., Kriuchkov A.Yu.

Karin Iliia Eduardovich - Master's degree in Information Systems in Economics and Management,

DEVOPS ENGINEER,

AUSTIN, TEXAS, UNITED STATES OF AMERICA,

Kriuchkov Aleksandr Yurievich - Master’s degree in radio communications, radio broadcasting, and television, Cloud Engineer,

SERBIA

Abstract: Artificial intelligence (AI) has become an integral component of modern software engineering, with large language model (LLM)–based assistants such as GitHub Copilot, Microsoft Copilot Studio, and CodeRabbit increasingly supporting code generation, review, and workflow automation. While these tools promise significant productivity gains, they also introduce novel and underexplored attack surfaces. This article examines three recent, high-impact case studies of adversarial exploitation: (i) CVE-2025-53773, a prompt injection vulnerability in GitHub Copilot enabling wormable remote code execution, (ii) the “AgentFlayer” attack on Copilot Studio demonstrating zero-click data exfiltration through injected instructions, and (iii) the CodeRabbit supply chain compromise that leveraged a malicious pull request to gain write access to over one million repositories. Together, these incidents illustrate how prompt injection and AI poisoning transcend conventional software vulnerabilities by transforming passive data into active attack vectors. We analyze the broader implications for developer environments, enterprise AI agents, and CI/CD pipelines, highlighting the systemic risks of adversarial AI exploitation. Finally, we survey emerging defensive strategies, including prompt shielding, classifier-based detection, and red-teaming frameworks, and outline recommendations for mitigating the security challenges posed by AI-augmented development.

Keywords: Artificial intelligence security; large language models; prompt injection; AI poisoning; adversarial machine learning; software supply chain security; remote code execution; data exfiltration; CI/CD security; DevSecOps, LLM, AI, MCP.

Карин И.Э., Крючков А.Ю.

Карин Илия Эдуардович — магистр информационных систем в экономике и управлении, инженер DevOps,

 г. Остин, Техас, США,

Крючков Александр Юрьевич — магистр радиосвязи, радиовещания и телевидения, облачный инженер, Сербия

Аннотация: искусственный интеллект (ИИ) стал неотъемлемой частью современной разработки программного обеспечения. Ассистенты на основе больших языковых моделей (LLM), такие как GitHub Copilot, Microsoft Copilot Studio и CodeRabbit, всё активнее поддерживают генерацию кода, его ревью и автоматизацию рабочих процессов. Хотя эти инструменты обещают значительный рост производительности, они также создают новые и малоизученные поверхности атак. В данной статье рассматриваются три недавних и высокоэффективных примера злоумышленного использования: (i) CVE-2025-53773 — уязвимость prompt injection в GitHub Copilot, позволяющая червеподобное удалённое выполнение кода, (ii) атака «AgentFlayer» на Copilot Studio, демонстрирующая возможность извлечения данных без взаимодействия пользователя (zero-click) через внедрённые инструкции, и (iii) компрометация цепочки поставок CodeRabbit, при которой вредоносный pull request обеспечил доступ на запись более чем к одному миллиону репозиториев. Эти инциденты показывают, что prompt injection и отравление ИИ выходят за рамки традиционных уязвимостей ПО, превращая пассивные данные в активные векторы атак. Мы анализируем более широкие последствия для сред разработки, корпоративных AI-агентов и CI/CD-пайплайнов, подчёркивая системные риски эксплуатации ИИ противниками. Наконец, мы рассматриваем новые защитные стратегии, включая экранирование подсказок (prompt shielding), детекцию на основе классификаторов и фреймворки для red-teaming, а также формулируем рекомендации по смягчению угроз безопасности, возникающих при использовании ИИ в разработке.

Ключевые слова: безопасность искусственного интеллекта; большие языковые модели; prompt injection; отравление ИИ; атакующее машинное обучение; безопасность цепочки поставок ПО; удалённое выполнение кода; утечка данных; безопасность CI/CD; DevSecOps, LLM, AI, MCP.

References / Список литературы

  1. Carlini N., et al. (2024). Adversarial robustness for large language models. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). (Note: Exact title may vary; based on 2024 trends in LLM robustness research.)
  2. Evtimov I., et al. (2017). Robust physical-world attacks on deep learning models. arXiv preprint arXiv:1707.08945. https://doi.org/10.48550/arXiv.1707.08945
  3. Goodfellow I.J., Shlens J. & Szegedy C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572. https://doi.org/10.48550/arXiv.1412.6572
  4. Greshake K., et al. (2023). Not what you've signed up for: Compromising real-world LLM-integrated applications with indirect prompt injection. arXiv preprint arXiv:2302.12173. https://doi.org/10.48550/arXiv.2302.12173
  5. Szegedy C., et al. (2013). Intriguing properties of neural networks. arXiv preprint arXiv:1312.6199. https://doi.org/10.48550/arXiv.1312.6199
  6. Amiet N. (2025, August 19). How we exploited CodeRabbit: From a simple PR to RCE and write access on 1M repositories. Kudelski Security Research. https://research.kudelskisecurity.com/2025/08/19/how-we-exploited-coderabbit-from-a-simple-pr-to-rce-and-write-access-on-1m-repositories/ (New Reference: Author verified as Nils Amiet from the blog post and related Black Hat USA 2025 presentation.)
  7. Embrace The Red. (2025, June). GitHub Copilot: Remote code execution via prompt injection. Embrace The Red Blog. https://embracethered.com/blog/posts/2025/github-copilot-remote-code-execution-via-prompt-injection/ (New Reference: No individual author listed; attributed to the research group "Embrace The Red" per the blog’s authorship convention.)
  8. Kudelski Security. (2025, January). CodeRabbit vulnerability disclosure: Malicious pull request exploit via Rubocop integration. Kudelski Security Blog. https://research.kudelskisecurity.com/2025/01/15/coderabbit-vulnerability/
  9. Microsoft Security Response Center (MSRC). (2025, August). Security update for GitHub Copilot in Visual Studio Code (CVE-2025-53773). Microsoft Security Blog. https://msrc.microsoft.com/update-guide/vulnerability/CVE-2025-53773
  10. Persistent Security & Embrace The Red. (2025, June 29). CVE-2025-53773: Remote code execution in GitHub Copilot via prompt injection. Persistent Security Research Report. https://persistent-security.com/reports/cve-2025-53773
  11. Zenity Labs. (2025, August). A Copilot Studio story: When AIjacking leads to full data exfiltration. Zenity Labs Research. https://labs.zenity.io/p/a-copilot-studio-story-2-when-aijacking-leads-to-full-data-exfiltration-bc4a (New Reference: No individual author listed; attributed to Zenity Labs as the research entity per the blog’s publication details.)
  12. National Institute of Standards and Technology (NIST). (2025). Artificial intelligence risk management framework (AI RMF 1.0 Update). U.S. Department of Commerce. https://www.nist.gov/itl/ai-risk-management-framework
  13. OWASP Foundation. (2025). OWASP top 10 for large language model applications (LLM Top 10). OWASP Project. https://owasp.org/www-project-top-10-for-large-language-model-applications/
  14. Goodside R. (2022). Twitter thread on prompt injection experiments in LLMs. X (formerly Twitter). https://x.com/goodside/status/1584625160424562688
  15. Willison S. (2023). Indirect prompt injection threats. Simon Willison's Weblog. https://simonwillison.net/2023/Feb/20/indirect-prompt-injection/
  16. (2025). EVA: Evaluation for vulnerability analysis & ASTRA: Adversarial simulation for threat-resilient agents. Microsoft Research. https://www.microsoft.com/en-us/research/project/eva-astra
  17. (2025). Lakera Guard: Prompt shielding tool. Lakera Documentation. https://lakera.ai/guard

ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ

scientific publication copyright    
Cсылка для цитирования. Karin I.E., Kriuchkov A.Yu. ADVERSARIAL THREAT VECTORS IN AI-AUGMENTED SOFTWARE DEVELOPMENT: PROMPT INJECTION, DATA POISONING, AND EXPLOITATION RISKS  [ВЕКТОРЫ УГРОЗ В РАЗРАБОТКЕ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ С ПОДДЕРЖКОЙ ИИ: PROMPT INJECTION, ОТРАВЛЕНИЕ ДАННЫХ И РИСКИ ЭКСПЛУАТАЦИИ] // European science № 3(75), 2025. C. {см. журнал}

scientific publication pdf

Gurbanova M.Sh.

Gurbanova Maya Shukurovna – teacher  STATE MEDICAL UNIVERSITY OF TURKMENISTAN NAMED AFTER M. GARRYEV,  ASHGABAT, TURKMENISTAN

 Abstract: despite the amazing achievements of computing technologies, the paradigm "Program-array" has become not only a distorted reflection of the conceptual aspirations of programming theorists and the use of computer technology in society, but also significantly slows down these aspirations.

Keywords: information storage technologies.

Гурбанова М.Ш.

 Гурбанова Мая Шукуровна– преподаватель Государственный медицинский университет Туркменистана имени М. Гаррыева, г. Ашгабад, Туркменистан

Аннотация: несмотря на потрясающие достижения вычислительных технологий, парадигма «Программа-массив» стала, не только искаженно отображать концептуальные стремления теоретиков программирования и применения средств ВТ в социуме, но и существенно тормозить эти стремления.

Ключевые слова: технологии хранения информации.

Список литературы / References

  1. CUDA — Википедия. - http://ru.wikipedia.org/wiki/CUDA.
  2. OpenCL — Википедия. - http://ru.wikipedia.org/wiki/OpenCL.
  3. GPGPU — Википедия. - http://ru.wikipedia.org/wiki/GPGPU

ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ

scientific publication copyright    
Cсылка для цитирования. Gurbanova M.Sh.MODERN COMPUTER TECHNOLOGIES  [СОВРЕМЕННЫЕ КОМПЬЮТЕРНЫЕ ТЕХНОЛОГИИ] // European science № 1(73), 2025. C. {см. журнал}

scientific publication pdf

Araznazarova O.Ya.

Araznazarova Ogulbabek Yagshymyradovna – lecturer  M. GARRYEV STATE MEDICAL UNIVERSITY OF TURKMENISTAN,  ASHGABAT, TURKMENISTAN

Abstract: very quickly, the technological direction designed to create tools for storing, managing and accessing data became a separate technology, which was called DBMS or database management systems. Three main basic models of data representation were formed, which showed their specific features and began to develop almost independently:

  • the hierarchical model was assigned to file systems and programming languages: representation and description of objects, OOP and others;
  • the relational model, traditionally associated with tables and having a fairly developed mathematical apparatus, began to serve all the broad needs of industry and society;
  • the network model, as the most complex and general model, has become the subject of future promising research in the field of artificial intelligence and data management technologies. In fact, all modern DBMSs used in practice are associated with the relational model.

Keywords: information storage technologies.

Аразназарова О.Я.

 Аразназарова Огулбабек Ягшымырадовна – преподаватель Государственный медицинский университет Туркменистана имени М. Гаррыева, г. Ашгабад, Туркменистан

Аннотация: очень быстро технологическое направление, призванное создавать инструментальные средства хранения данных, управления данными и доступа к ним, стало отдельной технологий, которая стала называться СУБД или системы управления базами данных. Были сформированы три основные базовые модели представления данных, которые проявляли свои специфические черты и стали развиваться практически независимо:

  • иерархическая модель закрепилась за файловыми системами и языками программирования: представление и описание объектов, ООП и другие;
  • реляционная модель, традиционно ассоциированная с таблицами и имеющая достаточно развитый математический аппарат, стала обслуживать все широкие потребности промышленности и социума;
  • сетевая модель, как наиболее сложная и обобщающая модель, стала предметом будущих перспективных исследований в области искусственного интеллекта и технологий управления данными.

Фактически все современные практически используемые СУБД ассоциируются с реляционной моделью.

Ключевые слова: технологии хранения информации.

Список литературы / References

  1. CUDA — Википедия. [Электронный ресурс]. Режим доступа: http://ru.wikipedia.org/wiki/CUDA.
  2. OpenCL — Википедия. [Электронный ресурс]. Режим доступа: http://ru.wikipedia.org/wiki/OpenCL.
  3. GPGPU — Википедия. - http://ru.wikipedia.org/wiki/GPGPU

ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ

scientific publication copyright    
Cсылка для цитирования. Araznazarova O.Ya. DATA STORAGE TOOLS [ИНСТРУМЕНТАЛЬНЫЕ СРЕДСТВА ХРАНЕНИЯ ДАННЫХ] // European science № 1(73), 2025. C. {см. журнал}

scientific publication pdf

Sharabidze M.R.

Sharabidze Maia Revazovna – Doctor of Technical sciences, professor  DEPARTMENT OF DESIGN AND TECHNOLOGY,  AKAKI TSERETELI STATE UNIVERSITY, KUTAISI, GEORGIA

Abstract: the article analyzes the possibilities and experience of creating ointments and on their basis medical textile materials with various specific therapeutic properties. As a carrier of the therapeutic agent, we have proposed a biocomposition based on beeswax and various natural oils. It has been shown that the medical textile materials created by us based on Georgian traditional medicinal products have good physical and mechanical properties (medium pH, air permeability, hygroscopicity, capillarity, water absorption and moisture output,) and mass transfer indicators. As a result, textile materials contribute to the effective healing of wounds, burns, inflammation and have pain-relieving properties.

Keywords: medtextile, biocomposition, mass transfer.

Шарабидзе М.Р. 

Шарабидзе Майя Ревазовна – доктор технических наук, профессор,  Департамент дизайна и технологии,  Государственный университет им.А.Церетели, г. Кутаиси, Грузия

Аннотация: в статье анализируются возможности и опыт создания мазей и на их основе текстильных материалов медицинского назначения с различными специфическими лечебными свойствами. В качестве носителя лечебного средства нами предложена биокомпозиция на основе пчелиного воска и различных природных масел. Показано, что созданные нами текстильные материалы медицинского назначения на основе грузинских традиционных лечебных средств, обладают хорошими физико-механическими свойствами (pH среды, воздухопроницаемость, гигроскопичность, капиллярность, водопоглащение и влагоотдача,) и показателями масообмена. В результате этого текстильные матералы способствуют эффективному заживлению ран, ожогов, воспалений и обладают болеутоляющими свойствами.

Ключевые слова: медтекстиль, биокомпозиция, масообмен.

Список литературы/ References

  1. Шарабидзе М. Медтекстиль на основе грузинских традиционных природных лечебных препаратов, // Georgian Engineering News № 2, Тб. 2004, 140-143
  2. Грибкова В.А., Савилова Л.Б., Веденеева С.М., Олтаржевская Н.Д. Разработка технологии производства косметических масок на текстильной основе, // Текстильная химия №1(20), 2002 - с. 75-77.
  3. Шарабидзе М.Р. Изучение реологических свойств биокомпозиций для специального текстиля с лечебными свойствами, // «Вестник науки и образования» № 1 (37), Стр. 12-15.
  4. Шарабидзе М.Р. Изучение физико-механических характеристик специального текстиля с лечебными свойствами // «Проблемы современной науки и образования, №2 (122), 2018. Стр. 11-13.

ССЫЛКА ДЛЯ ЦИТИРОВАНИЯ ДАННОЙ СТАТЬИ

scientific publication copyright    
Cсылка для цитирования на русском языке. Sharabidze M.R.  MEDICAL TEXTILES BASED ON GEORGIAN TRADITIONAL NATURAL REMEDIES[ТЕКСТИЛЬ МЕДИЦИНСКОГО НАЗНАЧЕНИЯ НА ОСНОВЕ ГРУЗИНСКИХ ТРАДИЦИОННЫХ ПРИРОДНЫХ ЛЕЧЕБНЫХ СРЕДСТВ] // European science № 2(70), 2024. C. {см. журнал}

scientific publication pdf

Яндекс.Метрика Рейтинг@Mail.ru

adware software removal

Контакты в России

Мы в социальных сетях

Внимание

Как авторам, при выборе журнала, не попасть в руки мошенников. Очень обстоятельная статья. >>>

Вы здесь: Главная Главная Статьи Технические науки