Metodología de gestión de riesgos de tecnologías de la información como apoyo en la continuidad del negocio. Caso sector TIC en Ecuador
Thesis
Subjects > Communication
Subjects > Engineering
Ibero-american International University > Teaching > Final Master Projects
Ibero-american International University > Teaching > Master's Final Projects
Closed
Spanish
Muchas organizaciones en el mundo, hacen uso del sistema Web mediante la particularidad de suscripción con el fin de efectuar sus sistematizaciones; lo que se conoce como Software como Servicio que permite que los usuarios se conecten a programas que se encuentran en la nube y hacer uso de ellos. Pese a que este sistema es de gran utilidad, también hay que considerar que enfrentan una alta posibilidad de ataques informáticos y muy expuestos a diversos riesgos.Los riesgos se encuentran en todo ámbito laboral y si no se detectan a tiempo ni se controlan de forma correcta, pueden llegar a ocasionar innumerables pérdidas en la entidad donde se han presentado; afortunadamente existen metodologías, como la Gestión de Riesgos Tecnológicos que tienen como objetivo principal, proteger la información, mediante el análisis y detección de las fortalezas y debilidades durante la prestación de servicios de la entidad.Para poder detectar a tiempo los riesgos a los que se encuentra expuesta una entidad y plantear los pasos a seguir para que la misma pueda salir bien librada de la situación de riesgo presente, existe la gestión de riesgos que es un conjunto de procesos planteados que permitirán abordar con eficacia la problemática a la que se encuentre expuesta la empresa en su determinado momento; a continuación, se presenta una Metodología de Gestión de Riesgos de TI, que permitirá darle un enfoque más directo a las entidades que prestan software como servicio en Ecuador, sobre cuán importante es asegurar sus procesos sistemáticos, que permitan sobrellevar eventos externos o propios, que se puedan generar en algún momento. Cuando nos referimos a seguridad, hacemos énfasis en que seguridad en informática, es la debida protección que se le da a los datos y su forma de resistir ante el inconveniente que se pueda generar, tal como menciona (Interpolados, 2020) en su sitio web.Por tal razón, se ha percibido la necesidad de plantear un análisis de riesgo tecnológico de orden cualitativo, teniendo como referencia a la empresa W&G Computer, siguiendo la metodología MAGERIT. Primero se procede a relatar la situación actual de la institución, luego a identificar los activos con sus amenazas, para de ahí calcular los riesgos existentes y lograr incorporar los procedimientos que se adapten perfectamente a la metodología que se va a proponer.En este proyecto han tomado protagonismo las reglas y normas relevantes que ayuden a establecer la seguridad de los datos de respaldo de la empresa para mitigar los riesgos y reducir las vulnerabilidades en los activos de la empresa. Los procesos dentro de la planificación juegan un papel indispensable ya que cada uno de ellos en sus diversas etapas de gestión de riesgos, deben dar confiabilidad de que el negocio pese a las interrupciones a las que se pueda someter al enfrentarse a un riesgo inesperado puede retomar su actividad sin que afecte tanto a su estabilidad económica. Para la valoración se ha estimado la herramienta PILAR, la cual soporta el análisis y gestión de los riesgos de sistemas de información siguiendo la metodología MAGERIT que permitirá obtener un modelo sistemático para examinar los peligros que se pueden presentar al manejar TIC. Para poder hacer un estudio a fondo de los riesgos que se puedan presentar a nivel de seguridad informática, se hará uso de la herramienta PILAR, ya que se estima como un software de alta calidad a nivel de seguridad informática que sirve para detectar y estudiar los riesgos a fin de estar precavidos ante su aparición imprevista, así como manifiesta (Ayudaley, 2019) en su artículo web. PILAR, permite realizar una investigación más profunda de los tiempos de respuesta y durabilidad de la entidad, los procedimientos que se han seguido y la forma en que los miembros de la empresa han reaccionado frente a una amenaza, todo esto siempre en función a la continuidad del negocio.Finalmente, la contribución de este proyecto es detectar e identificar el nivel de riesgo en que están los activos a través de la medición del nivel de madurez y eficacia de la seguridad implementada dentro de la institución.
metadata
Rivas Yagual, Génesis Saray
mail
gene.rivasy@gmail.com
(2022)
Metodología de gestión de riesgos de tecnologías de la información como apoyo en la continuidad del negocio. Caso sector TIC en Ecuador.
Master's thesis, UNSPECIFIED.
Abstract
Muchas organizaciones en el mundo, hacen uso del sistema Web mediante la particularidad de suscripción con el fin de efectuar sus sistematizaciones; lo que se conoce como Software como Servicio que permite que los usuarios se conecten a programas que se encuentran en la nube y hacer uso de ellos. Pese a que este sistema es de gran utilidad, también hay que considerar que enfrentan una alta posibilidad de ataques informáticos y muy expuestos a diversos riesgos.Los riesgos se encuentran en todo ámbito laboral y si no se detectan a tiempo ni se controlan de forma correcta, pueden llegar a ocasionar innumerables pérdidas en la entidad donde se han presentado; afortunadamente existen metodologías, como la Gestión de Riesgos Tecnológicos que tienen como objetivo principal, proteger la información, mediante el análisis y detección de las fortalezas y debilidades durante la prestación de servicios de la entidad.Para poder detectar a tiempo los riesgos a los que se encuentra expuesta una entidad y plantear los pasos a seguir para que la misma pueda salir bien librada de la situación de riesgo presente, existe la gestión de riesgos que es un conjunto de procesos planteados que permitirán abordar con eficacia la problemática a la que se encuentre expuesta la empresa en su determinado momento; a continuación, se presenta una Metodología de Gestión de Riesgos de TI, que permitirá darle un enfoque más directo a las entidades que prestan software como servicio en Ecuador, sobre cuán importante es asegurar sus procesos sistemáticos, que permitan sobrellevar eventos externos o propios, que se puedan generar en algún momento. Cuando nos referimos a seguridad, hacemos énfasis en que seguridad en informática, es la debida protección que se le da a los datos y su forma de resistir ante el inconveniente que se pueda generar, tal como menciona (Interpolados, 2020) en su sitio web.Por tal razón, se ha percibido la necesidad de plantear un análisis de riesgo tecnológico de orden cualitativo, teniendo como referencia a la empresa W&G Computer, siguiendo la metodología MAGERIT. Primero se procede a relatar la situación actual de la institución, luego a identificar los activos con sus amenazas, para de ahí calcular los riesgos existentes y lograr incorporar los procedimientos que se adapten perfectamente a la metodología que se va a proponer.En este proyecto han tomado protagonismo las reglas y normas relevantes que ayuden a establecer la seguridad de los datos de respaldo de la empresa para mitigar los riesgos y reducir las vulnerabilidades en los activos de la empresa. Los procesos dentro de la planificación juegan un papel indispensable ya que cada uno de ellos en sus diversas etapas de gestión de riesgos, deben dar confiabilidad de que el negocio pese a las interrupciones a las que se pueda someter al enfrentarse a un riesgo inesperado puede retomar su actividad sin que afecte tanto a su estabilidad económica. Para la valoración se ha estimado la herramienta PILAR, la cual soporta el análisis y gestión de los riesgos de sistemas de información siguiendo la metodología MAGERIT que permitirá obtener un modelo sistemático para examinar los peligros que se pueden presentar al manejar TIC. Para poder hacer un estudio a fondo de los riesgos que se puedan presentar a nivel de seguridad informática, se hará uso de la herramienta PILAR, ya que se estima como un software de alta calidad a nivel de seguridad informática que sirve para detectar y estudiar los riesgos a fin de estar precavidos ante su aparición imprevista, así como manifiesta (Ayudaley, 2019) en su artículo web. PILAR, permite realizar una investigación más profunda de los tiempos de respuesta y durabilidad de la entidad, los procedimientos que se han seguido y la forma en que los miembros de la empresa han reaccionado frente a una amenaza, todo esto siempre en función a la continuidad del negocio.Finalmente, la contribución de este proyecto es detectar e identificar el nivel de riesgo en que están los activos a través de la medición del nivel de madurez y eficacia de la seguridad implementada dentro de la institución.
| Document Type: | Thesis (Master's) |
|---|---|
| Keywords: | riesgo, riesgo de TI, gestión de riesgos, continuidad de negocio, vulnerabilidad. |
| Subject classification: | Subjects > Communication Subjects > Engineering |
| Divisions: | Ibero-american International University > Teaching > Final Master Projects Ibero-american International University > Teaching > Master's Final Projects |
| Deposited: | 08 Nov 2023 23:30 |
| Last Modified: | 08 Nov 2023 23:30 |
| URI: | https://repositorio.unib.org/id/eprint/1733 |
Actions (login required)
![]() |
View Object |
<a class="ep_document_link" href="/28319/1/s41598-026-45575-1_reference.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>
en
open
A novel approach for disease and pests detection in potato production system based on deep learning
Vulnerability of potato crops to diseases and pest infestation can affect its quality and lead to significant yield losses. Timely detection of such diseases can help take effective decisions. For this purpose, a deep learning-based object detection framework is designed in this study to identify and classify major potato diseases and pests under real-world field conditions. A total of 2,688 field images were collected from two research farms in Punjab, Pakistan, across multiple growth stages in various seasonal conditions. Excluding 285 symptoms-free images from the earliest collection led to 2,403 images which were annotated into four biotic-stress classes: blight disease (n = 630), leaf spot disease (n = 370), leafroll virus (viral symptom complex; n = 888), and Colorado potato beetle (larvae/adults; n = 515), indicating class imbalance. Several state-of-the-art models were used including YOLOv8 variants (n/s/m), YOLOv7, YOLOv5, and Faster R-CNN, and the results are discussed in relation to recent potato disease classification studies involving cropped leaf images. Stratified splitting (70% training, 20% validation, 10% testing) was applied to preserve class distribution across all subsets. YOLOv8-medium achieve the best performance with mean average precision (mAP)@0.5 of 98% on the held-out test images. Results for stable 5-fold cross-validation show a mean mAP@0.5 of 97.8%, which offers a balance between accuracy and inference time. Model robustness was evaluated using 5-fold cross-validation and repeated training with different random seeds, showing a low variance of ±0.4% mAP. Results demonstrate promising outcomes under the real-world field conditions, while, broader cross-region and cross-season validation is intended for the future.
Ahmed Abbas mail , Saif Ur Rehman mail , Khalid Mahmood mail , Santos Gracia Villar mail santos.gracia@uneatlantico.es, Luis Alonso Dzul López mail luis.dzul@uneatlantico.es, Aseel Smerat mail , Imran Ashraf mail ,
Abbas
<a class="ep_document_link" href="/27825/1/s41598-026-39196-x_reference.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>
en
open
Histopathological evaluation is necessary for the diagnosis and grading of prostate cancer, which is still one of the most common cancers in men globally. Traditional evaluation is time-consuming, prone to inter-observer variability, and challenging to scale. The clinical usefulness of current AI systems is limited by the need for comprehensive pixel-level annotations. The objective of this research is to develop and evaluate a large-scale benchmarking study on a weakly supervised deep learning framework that minimizes the need for annotation and ensures interpretability for automated prostate cancer diagnosis and International Society of Urological Pathology (ISUP) grading using whole slide images (WSIs). This study rigorously tested six cutting-edge multiple instance learning (MIL) architectures (CLAM-MB, CLAM-SB, ILRA-MIL, AC-MIL, AMD-MIL, WiKG-MIL), three feature encoders (ResNet50, CTransPath, UNI2), and four patch extraction techniques (varying sizes and overlap) using the PANDA dataset (10,616 WSIs), yielding 72 experimental configurations. The methodology used distributed cloud computing to process over 31 million tissue patches, implementing advanced attention mechanisms to ensure clinical interpretability through Grad-CAM visualizations. The optimum configuration (UNI2 encoder with ILRA-MIL, 256 256 patches, 50% overlap) achieved 78.75% accuracy and 90.12% quadratic weighted kappa (QWK), outperforming traditional methods and approaching expert pathologist-level diagnostic capability. Overlapping smaller patches offered the best balance of spatial resolution and contextual information, while domain-specific foundation models performed noticeably better than generic encoders. This work is the first large-scale, comprehensive comparison of weekly supervised MIL methods for prostate cancer diagnosis and grading. The proposed approach has excellent clinical diagnostic performance, scalability, practical feasibility through cloud computing, and interpretability using visualization tools.
Naveed Anwer Butt mail , Dilawaiz Sarwat mail , Irene Delgado Noya mail irene.delgado@uneatlantico.es, Kilian Tutusaus mail kilian.tutusaus@uneatlantico.es, Nagwan Abdel Samee mail , Imran Ashraf mail ,
Butt
<a href="/27915/1/csbj.0023.pdf" class="ep_document_link"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>
en
open
This systematic literature review (SLR) investigates the integration of deep learning (DL), vision-language models(VLMs), and multi-agent systems in the analysis of pathology images and automated report generation. The rapidadvancement of whole-slide imaging (WSI) technologies has posed new challenges in pathology, especially due to thescale and complexity of the data. DL techniques in general and convolutional neural networks (CNNs) and transform-ers in particular have significantly enhanced image analysis tasks including segmentation, classification, and detection.However, these models often lack generalizability to generate coherent, clinically relevant text, thus necessitating theintegration of VLMs and large language models (LLMs). This review examines the effectiveness of VLMs and LLMsin bridging the gap between visual data and clinical text, focusing on their potential for automating the generationof pathology reports. Additionally, multi-agent systems, which leverage specialized artificial intelligence (AI) agentsto collaboratively perform diagnostic tasks, are explored for their contributions to improving diagnostic accuracy andscalability. Through a synthesis of recent studies, this review highlights the successes, challenges, and future direc-tions of these AI technologies in pathology diagnostics, offering a comprehensive foundation for the development ofintegrated, AI-driven diagnostic workflows.
Usama Ali mail , Imran Shafi mail , Jamil Ahmad mail , Arlette Zárate Cáceres mail , Thania Chio Montero mail , Hafiz Muhammad Raza ur Rehman mail , Imran Ashraf mail ,
Ali
<a class="ep_document_link" href="/27970/1/s11357-026-02188-w.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>
en
open
Fish consumption and cognitive function in aging: a systematic review of observational studies
Epidemiological studies consistently link higher fish intake with slower rates of cognitive decline and lower dementia incidence. The aim of the present study was to systematically review existing observational studies investigating the association between fish consumption and cognitive function in older adults. A total of 25 studies (8 cross-sectional and 17 prospective including mainly healthy older adults, age range of participants ranging from 18 to 30 years at baseline in prospective studies to 65 to 91 years, representing the upper limit of the age spectrum) were reviewed. Cognitive functions currently investigated in most published studies included various domains, such as global cognition, memory (episodic, working), executive function (planning, inhibition, flexibility), attention and processing speed. Existing studies greatly vary in terms of design (cross-sectional and prospective), geographical area, number of participants involved, and tools used to assess the outcomes of interest. The main findings across studies are not univocal, with some studies reporting stronger evidence of association between fish consumption and various cognitive domains, while others addressed rather null findings. The most consistently responsive domains were processing speed, executive functioning, semantic memory, and global cognitive ability among individuals consuming fish at least weekly, which are highly relevant to both neurodegenerative and vascular forms of cognitive impairment. Positive associations were also observed for verbal memory and general memory, though these were less uniform and often attenuated after multivariable adjustment. In contrast, associations with reaction time, verbal-numerical reasoning, and broad composite scores were inconsistent, and several fully adjusted models showed null results. In conclusion, the evidence suggests that regular fish intake (typically ≥1–2 servings per week) is linked to preserved cognitive performance, although some inconsistent findings require further investigations.
Justyna Godos mail , Giuseppe Caruso mail , Agnieszka Micek mail , Alberto Dolci mail , Carmen Lilí Rodríguez Velasco mail carmen.rodriguez@uneatlantico.es, Evelyn Frias-Toral mail , Jason Di Giorgio mail , Nicola Veronese mail , Andrea Lehoczki mail , Mario Siervo mail , Zoltan Ungvari mail , Giuseppe Grosso mail ,
Godos
<a class="ep_document_link" href="/28495/1/1-s2.0-S1697260026000153-main.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>
en
open
Attention-based multi-feature fusion neuromarker for EEG-driven stress classification in learners
With the growing academic pressure and competitive educational environment, students often face mental stress, which can affect their academic performance and mental health. Its accurate and timely detection and prevention is important. Traditionally, mental stress has been reported by self-assessment, which is highly subjective and can be erroneous. With advances in neuroscience, electroencephalogram (EEG) signals have been used to study brain states more objectively. EEG-based features, including time-domain, frequency-domain, and various types of connectivity features, have been used to effectively classify stress signals. However, these individual features are only able to present one aspect of the brain under stress. Several studies have combined a distinct set of features extracted from EEG signals, including time and frequency domain features, with other peripheral signals. Stress is a complex mechanism which leads to alternation in brain dynamics, its connectivity patterns and information flow. This study proposed a feature-fusion model that can effectively combine spatial features, i.e. Microstates (MS), connectivity features like Transfer Entropy (TE) and Granger Causality (GC), which provided a new neuromarker for stress classification. These features are combined with attention fusion, which enhances the discriminant features and mitigates the individual limitations within each modality. We also extracted microstates for stress-based signals. It provided a new set of microstate topomaps to study brain networks when under stress, which was not explored previously. The proposed Attention-fusion based multi-feature set is classified using Support Vector Machine, Linear Discriminant Analysis (LDA) and Multilayer Perceptron (MLP) and gave a reliable accuracy of 95.47%, 98.91%, and 83.49%, respectively. To validate the proposed method, the classification results were compared with individual and binary fusion of MS, TE and GC features, which further confirmed the robustness of the framework. This proposed feature fusion provides a more robust stress classification neuromarker, which can effectively cover the brain dynamics for accurate reporting of the underlying mental state.
Saliha Ejaz mail , Soyiba Javed mail , Imran Shafi mail , Jamil Ahmad mail , Samuel Allende Monje mail samuel.allende@uneatlantico.es, Josep Alemany Iturriaga mail josep.alemany@uneatlantico.es, Jin-Ghoo Choi mail , Imran Ashraf mail ,
Ejaz
