DSpace logo

Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.uide.edu.ec/handle/37000/7647
Título : Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM
Autor : Aulestia Rueda, Marco Antonio
Briceño Peñaherreta, Carlos Alberto
Morocho Pérez, David Gabriel
Horra Ramos, Javier Sebastián
Reyes, Iván (tutor)
Cortés, Alejandro (tutor)
Palabras clave : LABORATORIO;VULNERABILIDADES;APLICACIONES;LLM
Fecha de publicación : 2024
Editorial : QUITO/UIDE/2024
Citación : Aulestia Rueda, Marco Antonio; Briceño Peñaherreta, Carlos Alberto; Morocho Pérez, David Gabriel; Horra Ramos, Javier Sebastián. (2024). Implementación de un laboratorio para análisis de vulnerabilidades de aplicaciones que emplean LLM. Maestría en Ciberseguridad. UIDE. Quito. 97 p.
Resumen : La creación de un laboratorio para analizar vulnerabilidades en aplicaciones que utilizan Modelos de Lenguaje Grande (LLM) es fundamental para garantizar la seguridad y robustez de estas nuevas tecnologías. Los LLM, como GPT, se utilizan en una variedad de aplicaciones, incluidos chatbots y agentes virtuales, lo que los hace atractivos para actores malintencionados. Estará equipado con herramientas para no solo completar las actividades prácticas, sino también para identificar las vulnerabilidades propias de los LLM. Podrán evaluar el código y las interacciones en tiempo real con los modelos. Para evaluar la resiliencia de los LLM ante ciertos tipos de ataques, como la inyección de datos no autorizados o la manipulación contextual, será esencial que involucremos el uso de entornos aislados que puedan simular escenarios de la vida de la misma manera... Creating a lab to analyze vulnerabilities in applications that use Large Language Models (LLMs) is critical to ensuring the security and robustness of these new technologies. LLMs, such as GPT, are used in a variety of applications, including chatbots and virtual agents, making them attractive to malicious actors. It will be equipped with tools to not only complete hands-on activities, but also to identify vulnerabilities specific to LLMs. They will be able to assess code and real-time interactions with the models. To assess the resilience of LLMs to certain types of attacks, such as unauthorized data injection or contextual manipulation, it will be essential that we involve the use of isolated environments that can simulate real-life scenarios in the same way...
URI : https://repositorio.uide.edu.ec/handle/37000/7647
Aparece en las colecciones: Tesis - Maestría - En Ciberseguridad

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
UIDE-Q-TMCS-2024-02.pdfTESIS A TEXTO COMPLETO1.51 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.