
Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.uide.edu.ec/handle/37000/7647
Título : | Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM |
Autor : | Aulestia Rueda, Marco Antonio Briceño Peñaherreta, Carlos Alberto Morocho Pérez, David Gabriel Horra Ramos, Javier Sebastián Reyes, Iván (tutor) Cortés, Alejandro (tutor) |
Palabras clave : | LABORATORIO;VULNERABILIDADES;APLICACIONES;LLM |
Fecha de publicación : | 2024 |
Editorial : | QUITO/UIDE/2024 |
Citación : | Aulestia Rueda, Marco Antonio; Briceño Peñaherreta, Carlos Alberto; Morocho Pérez, David Gabriel; Horra Ramos, Javier Sebastián. (2024). Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM. Maestría en Ciberseguridad. UIDE. Quito. 97 p. |
Resumen : | La creación de un laboratorio para analizar vulnerabilidades en aplicaciones que utilizan Modelos de Lenguaje Grande (LLM) es fundamental para garantizar la seguridad y robustez de estas nuevas tecnologías. Los LLM, como GPT, se utilizan en una variedad de aplicaciones, incluidos chatbots y agentes virtuales, lo que los hace atractivos para actores malintencionados. Estará equipado con herramientas para no solo completar las actividades prácticas, sino también para identificar las vulnerabilidades propias de los LLM. Podrán evaluar el código y las interacciones en tiempo real con los modelos. Para evaluar la resiliencia de los LLM ante ciertos tipos de ataques, como la inyección de datos no autorizados o la manipulación contextual, será esencial que involucremos el uso de entornos aislados que puedan simular escenarios de la vida de la misma manera... Creating a lab to analyze vulnerabilities in applications that use Large Language Models (LLMs) is critical to ensuring the security and robustness of these new technologies. LLMs, such as GPT, are used in a variety of applications, including chatbots and virtual agents, making them attractive to malicious actors. It will be equipped with tools to not only complete hands-on activities, but also to identify vulnerabilities specific to LLMs. They will be able to assess code and real-time interactions with the models. To assess the resilience of LLMs to certain types of attacks, such as unauthorized data injection or contextual manipulation, it will be essential that we involve the use of isolated environments that can simulate real-life scenarios in the same way... |
URI : | https://repositorio.uide.edu.ec/handle/37000/7647 |
Aparece en las colecciones: | Tesis - Maestría - En Ciberseguridad |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
UIDE-Q-TMCS-2024-02.pdf | TESIS A TEXTO COMPLETO | 1.51 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.