Impacto de la estandarización de los procesos de congelación y descongelación, en el comportamiento del color del hueso en pollo de diferentes tiempos de almacenamiento, comparando el efecto con pollo fresco; en una planta que comercializa pollo frito.

Tesis Materias > Ingeniería
Materias > Alimentación
Universidad Internacional Iberoamericana México > Docencia > Trabajos finales de Máster
Universidad Internacional Iberoamericana Puerto Rico > Docencia > Trabajos finales de Máster
Cerrado Español En una planta de producción de cárnicos Int. Food Services Corp., que maneja materia prima en almacenamiento congelado y refrigerado; se han ajustado los procesos de congelación y descongelación, debido a novedades de clientes por desviaciones en la coloración de la carne y hueso. Según (Arteaga & Soto-Salanova, 2009) este fenómeno se conoce como síndrome de hueso negro y afecta en la decisión de adquisición del consumidor.Como parte del ajuste del proceso realizado en Int. Food Services Corp., en el 2020; en congelación se debe alcanzar una temperatura de ≤-18°C y en descongelación se debe emplear agua corrida. Estas variables han sido definidas con base en estudios previos realizados por la propia empresa; no obstante, el impacto del ajuste no ha sido valorado en almacenamiento por hasta 3 meses en el producto final (presas fritas). Por ello, el objetivo general del estudio es determinar la afectación de las características sensoriales en pollo frito en el color del hueso; con materia prima congelada en 0, 45 y 90 días de almacenamiento; para compararlo con el producto elaborado con materia prima refrigerada.Para esto se utiliza el colorímetro Minolta CR-400 como equipo de medición; mismo que (Konica Minolta, 2020) indica valora luminosidad (L*), que es el grado de oscurecimiento o blancura del hueso. Se considera medir en la tibia, debido a que las referencias bibliográficas indican que es la zona en la que mejor apreciación se tiene del defecto (Aingla, 2015). Como parte de la metodología se congela por cada jaba 90 presas, para posterior pasar a la descongelación, con una muestrea de 50 presas en cada tratamiento, y en pollo refrigerado se realiza la medición de luminosidad en 270 presas; en ambos casos se evalúa en pollo crudo y frito.Para la evaluación se ha revisado de manera bibliográfica pautas para valoración de síndrome de hueso negro y según lo reportado por (Mota, y otros, 2019) se emplea la siguiente escala: aceptable los valores superiores a 40L*, de riesgo alto o intermedio de 35 a 40L* e inaceptable los valores inferiores a 35L*. Se emplea para la estadística el programa de Minitab con un análisis varianza de un solo factor ANOVA con un nivel de significancia de 0,05 %, y con la prueba complementaria de Tukey para comparar los diferentes grupos. Los resultados indican que en el caso de hueso fresco el 100 % de las mediciones están sobre el rango de aceptable, pasando al rango intermedio únicamente en el 1 % de la muestra en fritura. Al comparar las medias de hueso crudo almacenado en diferentes tiempos, se determina que al día 90 existe diferencia significativa; pero en hueso frito no existe diferencia. Lo que indica que el tiempo de almacenamiento no impacta en el producto final y así pues en todos los casos las medias son superiores a 40L* (rango aceptable). Entonces, en cuanto a la hipótesis conceptual, se determina que el proceso estandarizado, genera un menor impacto en síndrome de hueso negro debido a que anteriormente los valores en hueso crudo congelado en el rango inferior estaban desde 29L* (coloración inaceptable) y ahora están sobre 40L* (coloración intermedia). Por otra parte, cada tratamiento térmico ha generado merma de luminosidad: en la descongelación de 3,85L* y en la fritura en producto refrigerado de 5.71L* y en hueso congelado de 6.74L*. Si bien el estudio genera un aporte en el control de síndrome de hueso negro, se recomienda generar nuevas evaluaciones conjuntas con el proveedor de materia prima. metadata Martínez Guzman, Verónica Nataly mail vrnaty_20@hotmail.com (2022) Impacto de la estandarización de los procesos de congelación y descongelación, en el comportamiento del color del hueso en pollo de diferentes tiempos de almacenamiento, comparando el efecto con pollo fresco; en una planta que comercializa pollo frito. Masters thesis, SIN ESPECIFICAR.

Texto completo no disponible.

Resumen

En una planta de producción de cárnicos Int. Food Services Corp., que maneja materia prima en almacenamiento congelado y refrigerado; se han ajustado los procesos de congelación y descongelación, debido a novedades de clientes por desviaciones en la coloración de la carne y hueso. Según (Arteaga & Soto-Salanova, 2009) este fenómeno se conoce como síndrome de hueso negro y afecta en la decisión de adquisición del consumidor.Como parte del ajuste del proceso realizado en Int. Food Services Corp., en el 2020; en congelación se debe alcanzar una temperatura de ≤-18°C y en descongelación se debe emplear agua corrida. Estas variables han sido definidas con base en estudios previos realizados por la propia empresa; no obstante, el impacto del ajuste no ha sido valorado en almacenamiento por hasta 3 meses en el producto final (presas fritas). Por ello, el objetivo general del estudio es determinar la afectación de las características sensoriales en pollo frito en el color del hueso; con materia prima congelada en 0, 45 y 90 días de almacenamiento; para compararlo con el producto elaborado con materia prima refrigerada.Para esto se utiliza el colorímetro Minolta CR-400 como equipo de medición; mismo que (Konica Minolta, 2020) indica valora luminosidad (L*), que es el grado de oscurecimiento o blancura del hueso. Se considera medir en la tibia, debido a que las referencias bibliográficas indican que es la zona en la que mejor apreciación se tiene del defecto (Aingla, 2015). Como parte de la metodología se congela por cada jaba 90 presas, para posterior pasar a la descongelación, con una muestrea de 50 presas en cada tratamiento, y en pollo refrigerado se realiza la medición de luminosidad en 270 presas; en ambos casos se evalúa en pollo crudo y frito.Para la evaluación se ha revisado de manera bibliográfica pautas para valoración de síndrome de hueso negro y según lo reportado por (Mota, y otros, 2019) se emplea la siguiente escala: aceptable los valores superiores a 40L*, de riesgo alto o intermedio de 35 a 40L* e inaceptable los valores inferiores a 35L*. Se emplea para la estadística el programa de Minitab con un análisis varianza de un solo factor ANOVA con un nivel de significancia de 0,05 %, y con la prueba complementaria de Tukey para comparar los diferentes grupos. Los resultados indican que en el caso de hueso fresco el 100 % de las mediciones están sobre el rango de aceptable, pasando al rango intermedio únicamente en el 1 % de la muestra en fritura. Al comparar las medias de hueso crudo almacenado en diferentes tiempos, se determina que al día 90 existe diferencia significativa; pero en hueso frito no existe diferencia. Lo que indica que el tiempo de almacenamiento no impacta en el producto final y así pues en todos los casos las medias son superiores a 40L* (rango aceptable). Entonces, en cuanto a la hipótesis conceptual, se determina que el proceso estandarizado, genera un menor impacto en síndrome de hueso negro debido a que anteriormente los valores en hueso crudo congelado en el rango inferior estaban desde 29L* (coloración inaceptable) y ahora están sobre 40L* (coloración intermedia). Por otra parte, cada tratamiento térmico ha generado merma de luminosidad: en la descongelación de 3,85L* y en la fritura en producto refrigerado de 5.71L* y en hueso congelado de 6.74L*. Si bien el estudio genera un aporte en el control de síndrome de hueso negro, se recomienda generar nuevas evaluaciones conjuntas con el proveedor de materia prima.

Tipo de Documento: Tesis (Masters)
Palabras Clave: congelación, descongelación, hueso negro, colorímetro, procesos
Clasificación temática: Materias > Ingeniería
Materias > Alimentación
Divisiones: Universidad Internacional Iberoamericana México > Docencia > Trabajos finales de Máster
Universidad Internacional Iberoamericana Puerto Rico > Docencia > Trabajos finales de Máster
Depositado: 06 May 2024 23:30
Ultima Modificación: 06 May 2024 23:30
URI: https://repositorio.unib.org/id/eprint/3104

Acciones (logins necesarios)

Ver Objeto Ver Objeto

<a href="/17858/1/s41598-025-18979-8.pdf" class="ep_document_link"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>

en

open

Detection and classification of brain tumor using a hybrid learning model in CT scan images

Accurate diagnosis of brain tumors is critical in understanding the prognosis in terms of the type, growth rate, location, removal strategy, and overall well-being of the patients. Among different modalities used for the detection and classification of brain tumors, a computed tomography (CT) scan is often performed as an early-stage procedure for minor symptoms like headaches. Automated procedures based on artificial intelligence (AI) and machine learning (ML) methods are used to detect and classify brain tumors in Computed Tomography (CT) scan images. However, the key challenges in achieving the desired outcome are associated with the model’s complexity and generalization. To address these issues, we propose a hybrid model that extracts features from CT images using classical machine learning. Additionally, although MRI is a common modality for brain tumor diagnosis, its high cost and longer acquisition time make CT scans a more practical choice for early-stage screening and widespread clinical use. The proposed framework has different stages, including image acquisition, pre-processing, feature extraction, feature selection, and classification. The hybrid architecture combines features from ResNet50, AlexNet, LBP, HOG, and median intensity, classified using a multilayer perceptron. The selection of the relevant features in our proposed hybrid model was extracted using the SelectKBest algorithm. Thus, it optimizes the proposed model performance. In addition, the proposed model incorporates data augmentation to handle the imbalanced datasets. We employed a scoring function to extract the features. The Classification is ensured using a multilayer perceptron neural network (MLP). Unlike most existing hybrid approaches, which primarily target MRI-based brain tumor classification, our method is specifically designed for CT scan images, addressing their unique noise patterns and lower soft-tissue contrast. To the best of our knowledge, this is the first work to integrate LBP, HOG, median intensity, and deep features from both ResNet50 and AlexNet in a structured fusion pipeline for CT brain tumor classification. The proposed hybrid model is tested on data from numerous sources and achieved an accuracy of 94.82%, precision of 94.52%, specificity of 98.35%, and sensitivity of 94.76% compared to state-of-the-art models. While MRI-based models often report higher accuracies, the proposed model achieves 94.82% on CT scans, within 3–4% of leading MRI-based approaches, demonstrating strong generalization despite the modality difference. The proposed hybrid model, combining hand-crafted and deep learning features, effectively improves brain tumor detection and classification accuracy in CT scans. It has the potential for clinical application, aiding in early and accurate diagnosis. Unlike MRI, which is often time-intensive and costly, CT scans are more accessible and faster to acquire, making them suitable for early-stage screening and emergency diagnostics. This reinforces the practical and clinical value of the proposed model in real-world healthcare settings.

Producción Científica

Roja Ghasemi mail , Naveed Islam mail , Samin Bayat mail , Muhammad Shabir mail , Shahid Rahman mail , Farhan Amin mail , Isabel de la Torre mail , Ángel Gabriel Kuc Castilla mail angel.kuc@uneatlantico.es, Debora L. Ramírez-Vargas mail debora.ramirez@unini.edu.mx,

Ghasemi

<a class="ep_document_link" href="/17849/1/1-s2.0-S2590005625001043-main.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>

en

open

Ultra Wideband radar-based gait analysis for gender classification using artificial intelligence

Gender classification plays a vital role in various applications, particularly in security and healthcare. While several biometric methods such as facial recognition, voice analysis, activity monitoring, and gait recognition are commonly used, their accuracy and reliability often suffer due to challenges like body part occlusion, high computational costs, and recognition errors. This study investigates gender classification using gait data captured by Ultra-Wideband radar, offering a non-intrusive and occlusion-resilient alternative to traditional biometric methods. A dataset comprising 163 participants was collected, and the radar signals underwent preprocessing, including clutter suppression and peak detection, to isolate meaningful gait cycles. Spectral features extracted from these cycles were transformed using a novel integration of Feedforward Artificial Neural Networks and Random Forests , enhancing discriminative power. Among the models evaluated, the Random Forest classifier demonstrated superior performance, achieving 94.68% accuracy and a cross-validation score of 0.93. The study highlights the effectiveness of Ultra-wideband radar and the proposed transformation framework in advancing robust gender classification.

Producción Científica

Adil Ali Saleem mail , Hafeez Ur Rehman Siddiqui mail , Muhammad Amjad Raza mail , Sandra Dudley mail , Julio César Martínez Espinosa mail ulio.martinez@unini.edu.mx, Luis Alonso Dzul López mail luis.dzul@uneatlantico.es, Isabel de la Torre Díez mail ,

Saleem

<a class="ep_document_link" href="/17857/1/excli2025-8779.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>

en

open

Molecular mechanisms underlying the neuroprotective effects of polyphenols: implications for cognitive function

Polyphenols are naturally occurring compounds that can be found in plant-based foods, including fruits, vegetables, nuts, seeds, herbs, spices, and beverages, the use of which has been linked to enhanced brain health and cognitive function. These natural molecules are broadly classified into two main groups: flavonoids and non-flavonoid polyphenols, the latter including phenolic acids, stilbenes, and tannins. Flavonoids are primarily known for their potent antioxidant properties, which help neutralize harmful reactive oxygen species (ROS) in the brain, thereby reducing oxidative stress, a key contributor to neurodegenerative diseases. In addition to their antioxidant effects, flavonoids have been shown to modulate inflammation, enhance neuronal survival, and support neurogenesis, all of which are critical for maintaining cognitive function. Phenolic acids possess strong antioxidant properties and are believed to protect brain cells from oxidative damage. Neuroprotective effects of these molecules can also depend on their ability to modulate signaling pathways associated with inflammation and neuronal apoptosis. Among polyphenols, hydroxycinnamic acids such as caffeic acid have been shown to enhance blood-brain barrier permeability, which may increase the delivery of other protective compounds to the brain. Another compound of interest is represented by resveratrol, a stilbene extensively studied for its potential neuroprotective properties related to its ability to activate the sirtuin pathway, a molecular signaling pathway involved in cellular stress response and aging. Lignans, on the other hand, have shown promise in reducing neuroinflammation and oxidative stress, which could help slow the progression of neurodegenerative diseases and cognitive decline. Polyphenols belonging to different subclasses, such as flavonoids, phenolic acids, stilbenes, and lignans, exert neuroprotective effects by regulating microglial activation, suppressing pro-inflammatory cytokines, and mitigating oxidative stress. These compounds act through multiple signaling pathways, including NF-κB, MAPK, and Nrf2, and they may also influence genetic regulation of inflammation and immune responses at brain level. Despite their potential for brain health and cognitive function, polyphenols are often characterized by low bioavailability, something that deserves attention when considering their therapeutic potential. Future translational studies are needed to better understand the right dosage, the overall diet, the correct target population, as well as ideal formulations allowing to overcome bioavailability limitations.

Producción Científica

Justyna Godos mail , Giuseppe Carota mail , Giuseppe Caruso mail , Agnieszka Micek mail , Evelyn Frias-Toral mail , Francesca Giampieri mail francesca.giampieri@uneatlantico.es, Julién Brito Ballester mail julien.brito@uneatlantico.es, Maurizio Battino mail maurizio.battino@uneatlantico.es, Carmen Lilí Rodríguez Velasco mail carmen.rodriguez@uneatlantico.es, José L. Quiles mail jose.quiles@uneatlantico.es,

Godos

<a class="ep_document_link" href="/17844/1/frai-1-1572645.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>

en

open

A systematic review of deep learning methods for community detection in social networks

Introduction: The rapid expansion of generated data through social networks has introduced significant challenges, which underscores the need for advanced methods to analyze and interpret these complex systems. Deep learning has emerged as an effective approach, offering robust capabilities to process large datasets, and uncover intricate relationships and patterns. Methods: In this systematic literature review, we explore research conducted over the past decade, focusing on the use of deep learning techniques for community detection in social networks. A total of 19 studies were carefully selected from reputable databases, including the ACM Library, Springer Link, Scopus, Science Direct, and IEEE Xplore. This review investigates the employed methodologies, evaluates their effectiveness, and discusses the challenges identified in these works. Results: Our review shows that models like graph neural networks (GNNs), autoencoders, and convolutional neural networks (CNNs) are some of the most commonly used approaches for community detection. It also examines the variety of social networks, datasets, evaluation metrics, and employed frameworks in these studies. Discussion: However, the analysis highlights several challenges, such as scalability, understanding how the models work (interpretability), and the need for solutions that can adapt to different types of networks. These issues stand out as important areas that need further attention and deeper research. This review provides meaningful insights for researchers working in social network analysis. It offers a detailed summary of recent developments, showcases the most impactful deep learning methods, and identifies key challenges that remain to be explored.

Producción Científica

Mohamed El-Moussaoui mail , Mohamed Hanine mail , Ali Kartit mail , Mónica Gracia Villar mail monica.gracia@uneatlantico.es, Helena Garay mail helena.garay@uneatlantico.es, Isabel de la Torre Díez mail ,

El-Moussaoui

<a class="ep_document_link" href="/17853/1/fmed-12-1600855.pdf"><img class="ep_doc_icon" alt="[img]" src="/style/images/fileicons/text.png" border="0"/></a>

en

open

Transformer-based ECG classification for early detection of cardiac arrhythmias

Electrocardiogram (ECG) classification plays a critical role in early detection and trocardiogram (ECG) classification plays a critical role in early detection and monitoring cardiovascular diseases. This study presents a Transformer-based deep learning framework for automated ECG classification, integrating advanced preprocessing, feature selection, and dimensionality reduction techniques to improve model performance. The pipeline begins with signal preprocessing, where raw ECG data are denoised, normalized, and relabeled for compatibility with attention-based architectures. Principal component analysis (PCA), correlation analysis, and feature engineering is applied to retain the most informative features. To assess the discriminative quality of the selected features, t-distributed stochastic neighbor embedding (t-SNE) is used for visualization, revealing clear class separability in the transformed feature space. The refined dataset is then input to a Transformer- based model trained with optimized loss functions, regularization strategies, and hyperparameter tuning. The proposed model demonstrates strong performance on the MIT-BIH benchmark dataset, showing results consistent with or exceeding prior studies. However, due to differences in datasets and evaluation protocols, these comparisons are indicative rather than conclusive. The model effectively classifies ECG signals into categories such as Normal, atrial premature contraction (APC), ventricular premature contraction (VPC), and Fusion beats. These results underscore the effectiveness of Transformer-based models in biomedical signal processing and suggest potential for scalable, automated ECG diagnostics. However, deployment in real-time or resource-constrained settings will require further optimization and validation.

Producción Científica

Sunnia Ikram mail , Amna Ikram mail , Harvinder Singh mail , Malik Daler Ali Awan mail , Sajid Naveed mail , Isabel De la Torre Díez mail , Henry Fabian Gongora mail henry.gongora@uneatlantico.es, Thania Chio Montero mail ,

Ikram