
Please use this identifier to cite or link to this item:
https://repositorio.uide.edu.ec/handle/37000/7647
Title: | Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM |
Authors: | Aulestia Rueda, Marco Antonio Briceño Peñaherreta, Carlos Alberto Morocho Pérez, David Gabriel Horra Ramos, Javier Sebastián Reyes, Iván (tutor) Cortés, Alejandro (tutor) |
Keywords: | LABORATORIO;VULNERABILIDADES;APLICACIONES;LLM |
Issue Date: | 2024 |
Publisher: | QUITO/UIDE/2024 |
Citation: | Aulestia Rueda, Marco Antonio; Briceño Peñaherreta, Carlos Alberto; Morocho Pérez, David Gabriel; Horra Ramos, Javier Sebastián. (2024). Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM. Maestría en Ciberseguridad. UIDE. Quito. 97 p. |
Abstract: | La creación de un laboratorio para analizar vulnerabilidades en aplicaciones que utilizan Modelos de Lenguaje Grande (LLM) es fundamental para garantizar la seguridad y robustez de estas nuevas tecnologías. Los LLM, como GPT, se utilizan en una variedad de aplicaciones, incluidos chatbots y agentes virtuales, lo que los hace atractivos para actores malintencionados. Estará equipado con herramientas para no solo completar las actividades prácticas, sino también para identificar las vulnerabilidades propias de los LLM. Podrán evaluar el código y las interacciones en tiempo real con los modelos. Para evaluar la resiliencia de los LLM ante ciertos tipos de ataques, como la inyección de datos no autorizados o la manipulación contextual, será esencial que involucremos el uso de entornos aislados que puedan simular escenarios de la vida de la misma manera... Creating a lab to analyze vulnerabilities in applications that use Large Language Models (LLMs) is critical to ensuring the security and robustness of these new technologies. LLMs, such as GPT, are used in a variety of applications, including chatbots and virtual agents, making them attractive to malicious actors. It will be equipped with tools to not only complete hands-on activities, but also to identify vulnerabilities specific to LLMs. They will be able to assess code and real-time interactions with the models. To assess the resilience of LLMs to certain types of attacks, such as unauthorized data injection or contextual manipulation, it will be essential that we involve the use of isolated environments that can simulate real-life scenarios in the same way... |
URI: | https://repositorio.uide.edu.ec/handle/37000/7647 |
Appears in Collections: | Tesis - Maestría - En Ciberseguridad |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
UIDE-Q-TMCS-2024-02.pdf | TESIS A TEXTO COMPLETO | 1.51 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.