Please use this identifier to cite or link to this item: http://repositorio.yachaytech.edu.ec/handle/123456789/680
Title: An improved congestion control mechanism for wireless networks using reinforcement learning
Authors: Astudillo León, Juan Pablo
Morocho Cayamcela, Manuel Eugenio
Andrade Zambrano, Argenis Ronaldo
Keywords: Comunicaciones inalámbricas
Redes multisalto
Aprendizaje profundo
Wireless communications
Multi-hop networks
Deep learning
Issue Date: Nov-2023
Publisher: Universidad de Investigación de Tecnología Experimental Yachay
Abstract: Las redes de comunicación inalámbrica, en particular las de múltiples saltos, se están expandiendo rápidamente, impulsadas por la integración de capacidades de comunicación en varios dispositivos. Un desafío importante en estas redes es gestionar la congestión, especialmente cuando se utiliza el protocolo de datagramas de usuario (UDP), que inherentemente carece de mecanismos de retroalimentación para mitigar la congestión. Esta tesis presenta un novedoso enfoque de control de congestión diseñado para estas redes, basado en Deep Q-Network (DQN). Al emplear el poder del aprendizaje por refuerzo profundo, el mecanismo DQN se adapta dinámicamente a escenarios de redes estáticas y móviles, tomando decisiones en tiempo real para optimizar el rendimiento de la red. El estudio evalúa este enfoque en diversos entornos, incluidas redes estáticas estructuradas y entornos inspirados en el mundo real. Los resultados muestran consistentemente la superioridad del mecanismo DQN sobre una línea de base sin control de congestión, particularmente en lo que respecta a la tasa de entrega de paquetes (PDR) y el tiempo de tránsito de la red. Sin embargo, a medida que aumenta la complejidad de la red, el rendimiento del modelo disminuye, lo que sugiere posibles desafíos de escalabilidad. El control de congestión basado en DQN ofrece una vía prometedora para mejorar la comunicación inalámbrica, pero es fundamental realizar más investigaciones para optimizarlo en entornos de red en continua evolución.
Description: Wireless communication networks, particularly multi-hop ones, are rapidly expanding, driven by integrating communication capabilities into various devices. A significant challenge in these networks is managing congestion, especially when using the User Datagram Protocol (UDP), which inherently lacks feedback mechanisms during congestion. This thesis introduces a novel congestion control approach tailored for these networks based on the Deep Q-Network (DQN). By employing the power of Deep Reinforcement Learning, the DQN mechanism dynamically adapts to static and mobile network scenarios, making real-time decisions to optimize network performance. The study evaluates this approach in diverse settings, including structured static networks and real-world-inspired environments. Results consistently show the DQN mechanism's superiority over a baseline with no congestion control, particularly regarding Packet Delivery Ratio (PDR) and network transit time. However, as network complexity increases, the model's performance diminishes, suggesting potential scalability challenges. The DQN-based congestion control offers a promising avenue for enhancing wireless communication, but further research is fundamental for its optimization in continuously evolving network environments.
URI: http://repositorio.yachaytech.edu.ec/handle/123456789/680
Appears in Collections:Tecnologías de la Información

Files in This Item:
File Description SizeFormat 
ECMC0142.pdf9.25 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.