Professional Documents
Culture Documents
Resumen—La reducción del tiempo de preparación siempre ha sido una cuestión crítica en las organizaciones
manufactureras. La iniciativa de cambios rápidos se atribuye a Shingeo Shingo con SMED (por sus siglas en inglés,
Single-Minute Exchange of Die)1. Por lo general el método SMED se aplica en la industria manufacturera por lo que en el
presente proyecto de investigación el método se llevó a cabo un Centro Técnico, específicamente en el proceso de
validación de pruebas en el laboratorio. Este proceso se conforma por dos máquinas; Travel and Effort y Tensile. En las
cuales se redujo el tiempo de preparación, el tiempo de entrega y se aumento la efectividad global del equipo OEE (por
sus siglas en inglés, Overall Equipment Effectiveness). Mediante la implementación de SMED, la empresa obtuvo una
reducción para la maquina T&E del 52,44% en el tiempo de preparación y aumento un 6,22% del OEE, en la máquina
Tensile se redujo un 92,85% del tiempo de preparación y aumentó un 22,04% del OEE, y hubo una disminución del
40,74% del tiempo de entrega.
Palabras clave—cambio rápido de preparación, OEE, SMED, tiempo de entrega, tiempo muerto
Introducción
El Centro Técnico, hace mejoras en el diseño, modificaciones de ingeniería, construye prototipos y valida las
cerraduras automotrices. Además de validar dichos cambios, también diseña las líneas de producción. En general, el
Centro Técnico trabaja desde la gestión de las cerraduras automotrices hasta su manufactura. La actividad principal
del sitio es el proceso de validación de pruebas, porque a través de este proceso, se aplican los cambios y/o mejoras
requeridas en las cerraduras automotrices. El proceso de prueba consta de tres etapas: generación, aprobación y
validación de la Requisición de Prueba (RT). Estas etapas ayudan a validar la calidad, funcionalidad, durabilidad y
mejoras una vez fabricadas. El proceso de pruebas es conformado por la máquina T&E y Tensile en las cuales se
generan altos tiempos de preparación. Es por esto que el presente proyecto de investigación llevó a cabo la
implementación de SMED en el Centro Técnico de cerraduras automotrices.
Los resultados de la aplicación de SMED por lo general están dentro de dos beneficios: aumento de la capacidad
de fabricación y mejora de la flexibilidad de la máquina, lo que permite trabajar con lotes más pequeños, creando un
flujo de materiales mediante la eliminación de tiempo de espera1. El tema de los tiempos de preparación es
generalmente un elemento que se ignora en gran medida en la producción en masa y a menudo es simplemente
aceptada2.
El método SMED es una de las herramientas de Manufactura Esbelta para reducir los desperdicios de espera en
un proceso de fabricación3. Proporciona una forma rápida y eficiente para cambiar el proceso de manufactura de un
producto a otro. La frase "un solo digito" no significa que todos los cambios y aperturas van a tomar sólo un minuto,
pero deben tener menos de 10 minutos, es decir, "minutos de un solo dígito"4. SMED introducida por Shingo es un
método y un conjunto de técnicas que permiten realizar un cambio rápido en menos de 10 minutos5. Las principales
etapas del proceso de preparación se presentan en el Cuadro 1:
1
La Ing. Linda Diane Hernandez Gómez es estudiante de Posgrado en Ingeniería Industrial en el Instituto Tecnológico de Cuidad
Juarez, Chihuahua. daiane.hgz@gmail.com
2
El Dr. Jaime Sánchez Leal es Profesor de Posgrado en Ingeniería Industrial en la Instituto Tecnológico de Cuidad Juarez,
Chihuahua. jsanchez@itcj.edu.mx
Paso 1: selección de la máquina. La gerencia selecciona la máquina para reducir el tiempo de preparación
teniendo en cuenta el tiempo de preparación más largo, la frecuencia y el cuello de botella.
Paso 2: definición del valor objetivo. El valor objetivo de reducción del tiempo de preparación es muy
importante, ya que afecta directamente a la motivación de los miembros del equipo que llevarán a cabo SMED.
Normalmente se especifica que el equipo debe reducir el tiempo en un 50% durante la primera implementación.
Paso 3: selección de los miembros del equipo. Los miembros del equipo que participan en la aplicación de
SMED son seleccionados por la dirección. El equipo debe incluir a representantes de los departamentos del proceso
de fabricación, ingeniería, planificación y gestión, los trabajadores que son responsables del proceso de preparación
de la máquina y de mantenimiento.
Paso 4: documentar los elementos de preparación. Se documenta la secuencia y ejecución de los elementos de
preparación así como el tiempo real. Las siguientes herramientas están disponibles para documentar el proceso:
1. Lista de rutas realizados por el operador para el proceso de preparación (diagrama de espagueti).
2. Las fotos de los detalles del proceso de preparación.
3. El video de todo el proceso de configuración.
4. Registro en papel de los elementos de preparación de la máquina, es la herramienta más simple para
documentar la secuencia y tiempo de los elementos de preparación.
5. Los datos se introducen en la secuencia exacta en la que se realiza así como las horas exactas registradas.
El propósito de la lista de rutas del operador es para visualizar los movimientos innecesarios durante la operación,
en base a la lista de rutas se traza un dibujo del lugar de trabajo. Los movimientos del operador se dibujan con una
línea continua2.
Paso 5: transformar los elementos de preparación. Los datos obtenidos en los elementos de preparación de la
máquina se copian del cuaderno y se fijan en un formato establecido por el equipo de SMED en el cual estará
identificado cada elemento en forma consecutiva para una mejor apreciación del proceso de preparación.
Paso 6: análisis de los elementos de preparación. El análisis se lleva a cabo por el equipo en una sala
observando y analizando los elementos de preparación. Esto se realiza para conocer como el operador realiza el
proceso además de identificar cuáles son las actividades, partes y herramientas que se utilizan para realizarlo. Según
Shingo que estableció el marco enfoque convencional SMED que se implementa a través de cuatro etapas, que se
describen a continuación4:
Fase 1: mapa actual del proceso de preparación. Al comienzo de la reunión, el moderador debe proyectar el
proceso definido para entrar en el estado actual del proceso de configuración 7. El objetivo de esta etapa es obtener
una visión global de todos los elementos incluidos en el proceso de puesta a punto. Esto se puede hacer mediante la
recopilación de datos sobre el proceso de configuración actual de acuerdo a las entrevistas con los operadores y los
ingenieros de pruebas sobre la máquina, después de los elementos de trabajo se dividen en una serie de acciones8.
Fase 2: Separar las actividades internas y externas de preparación. Presenta cada elemento de la configuración
real de la máquina y en esta etapa el equipo debe decidir qué actividades son internas o externas. Todos los
elementos que no se pueden realizar sin apagar la máquina son elementos internos, por ejemplo, montaje /
desmontaje de dados y los elementos externos son los que se pueden realizar mientras la máquina está en marcha,
por ejemplo, el transporte de los moldes. También recomendó el uso de tres herramientas diferentes4:
Fase 3: Convertir las actividades internas en externas. Las mejoras en esta etapa se pueden lograr mediante la
modificación de los equipos, y descartando algunos ajustes, diferentes técnicas ayudan sugirieron proceso de
conversión; incluyendo4:
• Preparar la máquina por delante de la máquina del tiempo con la condición de trabajo requerido para las piezas
de la máquina de precalentamiento ejemplo, precalentar la materia prima antes de suministrar la máquina.
• Utilice un procedimiento estándar siempre que sea posible para llevar a cabo los elementos de trabajo, el uso de
herramientas con tamaños estandarizados también es importante.
Mediante la realización de actividades de intercambio de ideas, el equipo recibe propuestas de mejoras de trabajo
interno y el trabajo externo.
Fase 4: mejora en todas las actividades de preparación. Según Shingo, mejoras en esta etapa se puede lograr a
través de dos pasos:
1. Mejora de preparación externa: estas incluyen los elementos que ayudan al trabajador para realizar las
tareas de preparación de una mejor manera un ejemplo, eliminar los desperdicios asociados con encontrar,
mover, reemplazar materiales y herramientas, también hay que inspeccionar antes la herramienta que se va
a usar para asegurarse de que funcionan correctamente. Por lo tanto, en esta etapa, las mejoras en el trabajo
interno y externo de trabajo se llevan a cabo con el principio de mejora continua9.
2. Mejora de preparación interna: la mejora en este paso puede hacerse de diferentes formas por ejemplo,
ejecutar más de un proceso de preparación al mismo tiempo posible, evitando el uso de sujeción manual y
tornillos. Esas actividades esperan que produzca una significante reducción en el tiempo de preparación.
La formación profesional se organiza mediante la capacitación de los operadores, máquinas y mantenimiento. La
configuración de la máquina se realiza de acuerdo con el proceso de mejora y se llevará a cabo al menos tres veces
durante el entrenamiento.
Paso 7: Si el tiempo de establecimiento de objetivo definido en el paso 2 no se ha logrado, el equipo de
inmediato repite el análisis de la preparación de la máquina realizando del paso.
Paso 8: Repita SMED. Reducción del tiempo de máquina de cambio es un proceso que nunca termina, por lo que
es necesario repetir el método cada seis meses y así estar más cerca del objetivo declarado de "lograr un tiempo de
cambio de la máquina un mínimo de 10 minutos. Una de las herramientas para lograr una buena implementación del
sistema SMED es la metodología de 5, lo cual permite una mejor organización y limpieza en el área de trabajo10.
Implementación de SMED
La metodología SMED fue implementada en el proceso de validación de pruebas, específicamente en las
maquinas T&E y Tensile. El proceso de preparación para la máquina de T&E tenía un tiempo promedio de 14,3 min
/ preparación y un OEE de 83.29%, por lo tanto, la categoría de eficiencia global de la máquina era buena
competitividad y entraba en los valores de clase mundial. Y para la máquina Tensile el tiempo promedio fue de 58,1
min / preparación y un OEE de 73.36%, teniendo la categoría de eficiencia global era aceptable, pero necesitan
trabajar en la mejora continua para avanzar hacia clase mundial, y ambas contaban con una media de 27 días de
tiempo de entrega. La compañía tenía un poco de experiencia en la aplicación de SMED de proyectos anteriores,
pero sin el éxito esperado. En el presente estudio, la primera etapa es la selección de las máquinas que son T&E y
Tensile que se muestran en la Figura 2.
En la segunda etapa el tiempo objetivo es reducir al menos el 50% del tiempo de preparación, para tener por
encima de 90% de OEE en ambas máquinas, y reducir 30% mediana de tiempo de entrega del RT. La tercera etapa
es la selección de los miembros del equipo que son los siguientes: gerente de sitio, supervisor de prueba y
confiabilidad, ingeniero de pruebas, supervisor de mantenimiento de la planta, líder de prueba, los técnicos de
prueba y el líder de SMED. En la etapa cuatro se documentaron los elementos de trabajo usando un video para
analizar el proceso de preparación y tomar la secuencia de las tareas en el proceso. En la quinta etapa se
transformaron los elementos de trabajo en la forma visual, ver Fig. 3.
Mesa de trabajo
Mesa de trabajo
T&E 2 T&E 2
prepa ración
prepa ración
T&E 1
Pa rtes de
4 T&E 1
Pa rtes de
1 Oficina
Oficina 1
3
Chantillon
Chantillon
2 2
3
Figura 3. Diagrama de espagueti para la maquina T&E (izquierda) y maquina Tensile (derecho)
Etapa seis, se realizó el análisis de los elementos de trabajo con los miembros del equipo de acuerdo con las
siguientes cuatro fases:
Fase 1: se tomaron 15 muestras para cada máquina y se capturo el proceso de preparación en un formato y para
el tiempo de entrega se tomaron 30 muestras.
Fase 2: en esta fase se identificaron los elementos internos (de color rojo) y los externos (color verde).
Fase 3: se propusieron las mejoras para transformar los elementos internos en externos y reducir o eliminar los
elementos externos.
Fase 4: en esta última fase se implementaron las mejoras en los elementos de preparación, en este estudio las
mejoras se muestran a continuación: en la máquina T & E se creó una cerradura maestra la cual se muestra la Figura
4, para reducir el tiempo de ajuste y se fijó un pasador en la máquina para eliminar los tiempos de búsqueda.
Para la máquina Tensile se creó un escantillón para cambios rápidos, el cual elimino el ajuste en los ejes X y Y,
además se diseñó para tener un fácil montaje de la placa y contrachapa de la cerradura, véase en la Figura 5.
Para ambas máquinas: se creó un estante con los kits de preparación para cada modelo por cada máquina, con
esta mejora se eliminó el tiempo para buscar las partes y herramientas de preparación, instalar partes erróneas y por
último se inició con una auditoría metodología de 5’s para mantener el orden y limpieza en el área de trabajo.
Resultados de la implementación
Después de estas mejoras en ambas máquinas los siguientes resultados fueron los siguientes: en la maquina T&E
se obtuvo un promedio de 7,5 min / preparación y un OEE de 89,51% dichos resultados se muestran en la Figura. 6
y para la máquina Tensile obtuvo un promedio de 4,15 min / preparación y un OEE de 95.4% véase en la Figura 7.Y
la mediana del tiempo de entrega de RT se redujo hasta 16 días los cuales se muestran en la Figura 8.
Figura 6. Diagrama de caja de los resultados de la máquina T&E para el tiempo de preparación (izquierda) y para
el OEE (derecha)
Figura 7. Diagrama de caja de la máquina Tensile para el tiempo de preparación (izquierda) y para el OEE
(derecha)
60
50
40
Datos
30
20
10
0
T. Entrega Antes T. Entrega Despues
De acuerdo con los resultados de las etapas 7 y 8, en conclusión general los objetivos establecidos en la fase 2 se
lograron con éxito. Además, el estudio SMED debe repetirse en seis meses para nuevos proyectos de mejora.
Conclusiones
En el presente trabajo el método SMED fue desarrollado para un Centro Técnico, logrando los resultados
establecidos, gracias a la reducción del 52,44% del tiempo de preparación y al aumento del 6,22% en el OEE para
la máquina T&E, y para la máquina Tensile se tuvo una exitosa reducción del 92,85% en el tiempo de preparación y
un 22,04% de aumento en el OEE, Además para el tiempo de entrega se registró un descenso del 40,74%.
De la misma manera 1P. Guzmán y K. Salonitis, están de acuerdo en que el trabajo en equipo y la asignación
roles son muy significativos. Por lo que facilitó la participación de personas de diferentes departamentos en toda la
organización. Método Shingo's SMED no está diseñado para múltiples trabajadores con varios equipos desde varias
actividades dependen de las tareas realizadas anteriormente por otros. Del mismo modo, 3K. Chintan y 2L. Wilson
concluyen que el método SMED es una gran herramienta para reducir los tiempos de preparación en las máquinas
para cualquier empresa, y se puede utilizar esta metodología para la mejora de su productividad.
Referencias
1
P. Guzman, y K. Salonitis, Improving changeover time: a tailored SMED approach for welding cells. SciVerce ScienceDirect. 2013
2
L. Wilson, How to implement lean manufacturing (New york: McGraw Hill, 2009).
3
K. Chintan, Set up reduction - a perfect way for productivity improvement of computer numerical control (cnc) set up in manufacturing
company. Journal of Mechanical Engineering Research, 2012, 166-170.
4
S. Shingo, A revolution in manufacturing: the SMED system (Tokyo: Japan Management Association, 1985).
5
M. Kemal, Improvement of changeover time via Taguchi empowered SMED/ case study on injection molding production, ScienceDirect, 2013.
6
K. Casas, Aplicación de la metodología de manufactura esbelta. Cd Juarez, Chihuahua: Instituto Tecnológico de Cd. Juárez, Chihuahua MEX,
2014.
7
J. Kusar, T. Berlec, F. Zefran, & M. Starbek, Reduction of machine setup time, EBSCOhost, 2010.
8
M. Mohammed, A proposed approach for setup time reduction through integrating conventional SMED method with multiple criteria decision-
making techniques, ScienceDirect, 2013.
9
L. Rivera, & D. Manotas, Lean manufacturing measurement: the relationship between lean activities and lean metrics. Science Direct, 2007.
10
L. Hernandez, Implementación de los primeros pilares del TPM en la línea knock sensor. engineering diss., Universidad Tecnológica de
Ciudad Juárez, Chihuahua, MEX, 2011.
Resumen— Desde Enero del 2014 inicio la aplicación de las reformas hechas a la del Ley del Impuesto Sobre la Renta
(ISR) en nuestro país, siendo una de sus modificaciones lo concerniente al régimen de tributación de las Micro, Pequeñas
y Medianas Empresas (Mipymes), denominado como Régimen de Incorporación Fiscal (RIF), en el cual, se establecen
cargas administrativas añadidas en comparación con el régimen anterior, conocido como Régimen de Pequeños
Contribuyentes (REPECOS). Por lo anterior, las autoridades fiscales han optado por la gradual aplicación y el
diferimiento de algunas de sus disposiciones, sin embargo, las Mipymes se encuentran en una situación de incertidumbre
fiscal en relación a las nuevas disposiciones y su proceder ante ellas. La presente investigación se centra en las micro,
pequeñas y medianas empresas en nuestro país.
Introducción
La reforma fiscal generada en el año 2014 prevé dentro de la Ley del ISR un nuevo Esquema de Incorporación
Fiscal, en el cual, se reubican de forma automática las Mipymes que tributaban hasta el 31 de Diciembre del 2013 en
el Régimen de Pequeños Contribuyentes (REPECOS). Las Micro, pequeñas y medianas empresas representan a
nivel mundial el segmento de la economía que aporta el mayor número de unidades económicas y personal ocupado;
de ahí la relevancia que reviste este tipo de empresas y la necesidad de fortalecer su desempeño, al incidir éstas de
manera fundamental en el comportamiento global de las economías nacionales; de hecho, en el contexto
internacional se puede afirmar que el 90%, o un porcentaje superior de las unidades económicas totales, está
conformado por las Micro, pequeñas y medianas empresas. En México, representan 72% del empleo en el país
(INEGI, 2010). Según datos estadísticos, en el año 2012, 70 de cada 100 microempresas no contaban con registro
ante alguna autoridad, y de aquellas que tributaban en el REPECOS, entre el año 2000 y 2010 presentaban una
evasión de hasta 98%. Por lo cual, es de suma importancia la participación económica que tienen en México y en
este contexto el Instituto Nacional de Estadística y Geografía (INEGI), indica que existen aproximadamente 4
millones 15 mil unidades empresariales, de las cuales 99.8% son Mipymes que generan 52% del Producto Interno
Bruto (PIB) y 72% del empleo en el país (2010) su relevancia en los diferentes sectores representa el 95.3% de la
actividad económica, en las cuales laboran el 45.6% de los trabajadores a nivel nacional, por lo anterior; el objetivo
del estudio radica en identificar el impacto de la reforma fiscal en las mismas.
Marco Teórico
En la Constitución Política de los Estados Unidos Mexicanos en el artículo 31 fracción IV, contempla que es
obligación de los mexicanos contribuir a los gastos públicos, así de la Federación, como de la Ciudad de México o
del Estado y Municipio en que residan, de la manera proporcional y equitativa que dispongan las leyes. Para tal fin,
la Secretaría de Hacienda y Crédito Público (SHCP) es parte fundamental en la estructura del Sistema Financiero
Mexicano y es la encargada de instrumentar la política fiscal, a través del Sistema de Administración Tributaria
(SAT) para las contribuciones de las personas físicas y morales.
Evasión Fiscal
Los contribuyentes son los sujetos pasivos de la relación tributaria y están clasificados como personas físicas o
personas morales y por otra parte, los sujetos activos de dicha relación son: la Federación, las Entidades Federativas
y los Municipios a través de los cuales se imponen diversas contribuciones y otras obligaciones a los primeros. Estos
impuestos referidos en México pueden entonces clasificarse entonces como federales, estatales y municipales. Cabe
señalar que la mayor carga fiscal es generada por los impuestos de tipo federal, de ahí la importancia del análisis de
1
Francisco Hernández Quinto MTE es Profesor de Gestión Empresarial en el Instituto Tecnológico Superior de Libres. Puebla.
vedagimsfbi2003@hotmail.com (autor corresponsal)
2
El M.C. Rodrigo González Ramírez es Profesor de Gestión Empresarial en el Instituto Tecnológico Superior de Libres. Puebla.
rol.life@hotmail.com
3
La L.A.C.P. Monserrat Aguayo Apreza es Profesora de Gestión Empresarial en el Instituto Tecnológico Superior de Libres. Puebla.
mma_88308@hotmail.com
4
El M.A. Arturo Ernesto Mares Gardea es Profesor del Instituto Tecnológico de Parral. Chihuahua. mares_2008@hotmail.com
los mismos en términos de impacto en las utilidades de las empresas en nuestro país. La tasa de evasión fiscal en
México es una de las más altas entre las economías con semejante nivel de desarrollo, y limita sustancialmente la
productividad de los impuestos. Las personas físicas evaden impuestos al no declarar totalmente sus ingresos por
sueldos y salarios, actividad profesional, arrendamiento y otros ingresos según el Centro de Estudios de las Finanzas
Públicas (CEFP). En los últimos años el Sistema de Administración Tributaria (SAT) ha elaborado estudios de
evasión en coordinación con universidades y de acuerdo con lo establecido en el artículo 29 de la Ley del SAT el
objetivo es conocer las tendencias en las tasas y montos de evasión de distintos tipos de impuestos, así mismo, tener
un diagnóstico de los niveles de evasión, identificar grupos, orígenes y recomendaciones para detener la evasión en
sus diferentes formas, tratando de explicar la conducta evasora desde varios enfoques, uno de ellos es el teórico, el
empírico y el experimental (Alm, 2012).
Régimen de Pequeños Contribuyentes (REPECOS)
Con el propósito principal de disminuir los niveles de informalidad y evasión fiscal en los sectores económicos,
surge en año 1998 este régimen de tributación, en donde, las personas físicas que se dediquen al comercio, industria,
transporte, actividades agropecuarias, ganaderas, y que únicamente enajenen bienes o presten servicios al público en
general, podían optar por pagar el ISR como pequeños contribuyentes, siempre que los ingresos propios de su
actividad empresarial y los intereses obtenidos en el año anterior no hayan excedido de los $2,000,000.00 (Dos
millones de pesos 00/100 MN) este régimen era opcional, ya que en su lugar podían tributar en Régimen Intermedio
o Régimen de Actividades Empresariales. Al iniciar actividades se podía tributar como pequeño contribuyente
cuando se estimara que los ingresos o ventas del año no excederían al monto indicado con anterioridad. Al iniciar
actividades se permitía tributar como pequeño contribuyente cuando se estimara que los ingresos por sus actividades
en un periodo menor de doce meses, fuera el límite anual de 2 millones de pesos, para su cálculo se dividían los
ingresos obtenidos entre el número de días que comprendía el periodo, y el resultado se multiplicaba por 365 días. Si
la cantidad obtenida excedía dicho monto, en el año siguiente no se podía tributar como pequeño contribuyente.
(Ley del ISR, 2013)
Régimen de Incorporación Fiscal (RIF)
En el marco de la reforma hacendaria se introdujo a partir del 1 de Enero de 2014 en la Ley del ISR , en su Título
IV Capítulo I Sección II el Régimen de Incorporación Fiscal, en sustitución del Régimen Intermedio de las Personas
Físicas con Actividades Empresariales y del Régimen de Pequeños Contribuyentes, para fomentar la formalidad de
las personas físicas con actividades empresariales que tienen capacidad administrativa limitada y que les permita
continuar tributando de manera similar, y para las microempresas que no se encuentren inscritas, lo hagan y
gradualmente prepararse a pagar sus impuestos y a su vez, accedan a todos los beneficios que ofrece. En el cual solo
podrán permanecer hasta por 10 años, y al término de este plazo, iniciarán el cumplimiento de sus obligaciones
incorporándose al régimen general de las personas físicas y cumplir adecuadamente con sus obligaciones fiscales. El
RIF es una forma sencilla de cumplir las obligaciones fiscales según la SHCP, permitiendo la formalización de los
sectores de la población que posean un pequeño negocio, en este régimen se pueden emitir facturas o acceder a
reportar de forma bimestral las ventas globales mediante declaración que presentarán a través de los sistemas que
disponga el SAT en su página de Internet, así mismo, determinarán una utilidad fiscal restando de la totalidad de sus
ingresos las erogaciones realizadas en el mismo periodo, así como la participación de los trabajadores en las
utilidades de las empresas. Para determinar el impuesto, los contribuyentes de esta sección considerarán los ingresos
cuando se cobren efectivamente y deducirán las erogaciones efectivamente realizadas en el ejercicio para la
adquisición de activos fijos, gastos o cargos diferidos. A la utilidad fiscal que se obtenga conforme al quinto párrafo
del Artículo 111, se le aplicará la Tabla 1.
Tabla 1: Tarifa Bimestral Aplicable para el cálculo del Impuesto Sobre la Renta de las Personas Físicas del Régimen
de Incorporación Fiscal
TARIFA BIMESTRAL
Límite inferior Límite superior Cuota fija Por ciento para aplicarse sobre el excedente del Límite Inferior
$ $ $ %
0.01 992.14 0.00 1.92%
992.15 8,420.82 19.04 6.4%
8,420.83 14,798.84 494.48 10.88%
14,798.85 17,203.00 1,188.42 16.00%
17,203.01 20,596.70 1,573.08 17.92%
20,596.71 41,540.58 2,181.22 21.36%
41,540.59 65,473.66 6,654.84 23.52%
65,473.67 125,000.00 12,283.90 30.00%
Porciento de reducción aplicable al Impuesto Sobre la Renta obtenido bimestralmente, el cual inicia con la
reducción del 100% para el primer año de tributación, es decir a partir de 2014, va disminuyendo 10% cada año,
transcurriendo a los 10 ejercicios la reducción es eliminada.
Los pequeños contribuyentes, por convenio, pueden pagar una cuota fija al gobierno del Estado, los beneficios de
la formalidad de negocios dedicados al comercio o prestación de servicios que no requieren título profesional no
pagaran IVA ni IEPS por las ventas o servicios con el público en general, si sus ingresos no exceden de $300,000.00
pesos anuales, tampoco están obligados a expedir facturas electrónicas con el público en general por montos
menores a $250,000.00 pesos, se pueden realizar pagos en efectivo por hasta $5,000.00 pesos por las compras,
inversiones o gastos que se realicen en el bimestre relacionados con su negocio, además de contar servicios de
seguridad social. Créditos para vivienda, al consumo y financiamientos y apoyos para el mismo negocio.
Descripción del Método
La metodología empleada se basa en una investigación descriptiva transversal, acudiendo a fuentes de
información como informes, anuarios, artículos especializados y bases de datos estadísticos de proyectos existentes.
Se recabó información de la situación que guardan las Micros, pequeñas y medianas empresas en el ámbito nacional
en relación con indicadores económicos de los principales sectores en los que se identifican a las Mipymes.
a) Lectura y análisis de la información que se generó en relación a este tema, emitida tanto por el Gobierno
Federal a través de sus diversas instancias en el ámbito fiscal como por analistas en temas fiscales en fuentes
periodísticas. b) Se identificó la base de datos de las micro, pequeñas y medianas empresas en los datos generados
en el censo económico del año 2009 en cuento a la estratificación de establecimientos en nuestro país. c) Se
emitieron los resultados obtenidos, así como las conclusiones derivadas del análisis documental en cuestión.
Análisis de la información
México es de los países a nivel mundial que presenta uno de los niveles más bajos de productividad en la
recaudación de impuestos, particularmente en el ISR y el IVA, los dos principales instrumentos tributarios en el
mundo. La baja productividad de los impuestos en México se explica en buena medida por la inadecuada
administración de los tributos, los grandes niveles de evasión y elusión, así como la creciente economía informal
alentada por las bajas tasas de crecimiento económico de los últimos años. En el marco del Decreto emitido por el
Cuando las actividades de los contribuyentes correspondan a dos o más de los sectores económicos mencionados
en los numerales 1 a 4 aplicarán el porcentaje que corresponda al sector preponderante. Se aplicarán los porcentajes
que a continuación se listan al monto de las contraprestaciones efectivamente cobradas por las actividades afectas al
pago del impuesto especial sobre producción y servicios en el bimestre de que se trate, considerando el tipo de
bienes enajenados por el contribuyente, conforme a la siguiente Tabla 4:
Tabla 4 de porcentajes para determinar el IEPS a pagar
Porcentaje
Descripción IEPS
(%)
Alimentos no básicos de alta densidad calórica (Ejemplo: dulces, chocolates, botanas,
galletas, pastelillos, pan dulce, paletas, helados) (cuando el contribuyente sea
comercializador) 1.0
Alimentos no básicos de alta densidad calórica (Ejemplo: dulces, chocolates, botanas,
galletas, pastelillos, pan dulce, paletas, helados) (cuando el contribuyente sea fabricante)
3.0
Bebidas alcohólicas (no incluye cerveza) (cuando el contribuyente sea comercializador) 10.0
Bebidas alcohólicas (no incluye cerveza) (cuando el contribuyente sea fabricante) 21.0
Bebidas saborizadas (cuando el contribuyente sea fabricante) 4.0
Cerveza (cuando el contribuyente sea fabricante) 10.0
Plaguicidas (cuando el contribuyente sea fabricante o comercializador) 1.0
Puros y otros tabacos hechos enteramente a mano (cuando el contribuyente sea fabricante) 23.0
Tabacos en general (cuando el contribuyente sea fabricante) 120.0
Base de datos de las micro, pequeñas y medianas empresas concernientes al Censo económico 2009.
De acuerdo con los criterios de estratificación de la Secretaría de Economía, en donde se otorga un peso
preponderante a los ingresos de las empresas para definir el estrato al que pertenecen, los resultados que se obtienen
son los siguientes. A nivel nacional las empresas micro representan el 95.3%, en las cuales labora 45.6% de los
trabajadores, porcentajes muy importantes para la actividad económica, ya que las coloca como el estrato más
sobresaliente en estas variables. Las empresas pequeñas ocupan el segundo lugar por el porcentaje de unidades
económicas con 4.3 y de personal ocupado con 23.8%; en tanto, las empresas grandes con el 0.2% de las unidades
económicas, ocupan un porcentaje similar de trabajadores al de la pequeña empresa, con 21.5 por ciento. Como se
observa en los datos estadísticos la preponderancia que tienen las Mipymes a nivel de generación de empleo y de
impacto que existe la aplicación de las reformas fiscales en las mismas. A continuación se presenta en la Tabla 5
Que se obtiene del Censo Económico 2009 utilizando los criterios empleados por la Secretaria de Economía para la
Estratificación de las Mipymes.
Tabla 5 Estratificación
Fuente: Elaboración propia con datos de los Censos económicos 2009, utilizando los criterios marcados por la
Secretaría de Economía en el Diario Oficial de la Federación del 30 de Junio del 2009.
Bajo este orden de ideas, es común también que las personas morales incurran reiteradamente en actividades de
evasión, sobre todo las medianas y pequeñas empresas. La evasión de las REPECOS era especialmente
considerable, hasta de 80% de la recaudación potencial por actividad empresarial. En México, las estimaciones de la
evasión a nivel general van desde 27% hasta 40% de la recaudación potencial, en tanto, para otros países como
Argentina la evasión es de 31, 24% para Canadá y Chile, 14% en Portugal y 5% en Nueva Zelanda. (CEFP 2010)
Resumen de resultados
Diversas publicaciones en periódicos y revistas, mencionan que la carga fiscal es un impedimento para un
adecuado desarrollo en la economía del país, señalando que las Mipymes son las empresas más vulnerables, siendo
aproximadamente el 42% de sus ingresos lo que les representa cumplir con sus obligaciones fiscales principalmente
las federales, así mismo, siguen considerando que el pago de contribuciones sobre todo al gobierno federal, les
afecta significativamente en los resultados financieros y administrativos de las mismas y en los últimos años esto se
ve agravado como consecuencia de la obligación de tener que utilizar tecnologías de la información. Los resultados
del RIF durante su primer año de existencia fueron sumamente alentadores con el registro de 899 mil
contribuyentes, lo que implicó un aumento de 23.1% respecto al padrón del abrogado Régimen de Pequeños
Contribuyentes.(SHCP 2015) La SHCP publicó que en el 2008 la recaudación de los impuestos más relevantes
relacionados con la renta fueron el ISR, el Impuesto Empresarial a Tasa Única (IETU) y el Impuesto a Depósitos en
Efectivo (IDE), alcanzando un monto de 5.1 por ciento del PIB, considerándose el nivel máximo en los últimos 30
años. El siguiente cambio se dio en el año 2009, en el cual se aprobaron una serie de modificaciones fiscales más en
el sentido de incremento de tasas impositivas tales como el IVA que incremento del 15 % a 16% y de 10% a 11% en
la región fronteriza, modificando además las tasas marginales de los últimos tres tramos de la tarifa del ISR a
personas físicas, ubicando la tasa máxima en 30% y la empresarial también fue modificada del 28% al 30% y así
mismo, a partir del 1 de Enero de 2014 quedan abrogadas las leyes del IETU y del IDE, es decir, sin efectos, estos
cambios darán un pequeño respiro al contribuyente que está iniciando un negocio con la eliminación de estos dos
últimos impuestos.
Conclusiones
Los beneficios que veremos materializarse en el mediano y largo plazos, han tenido un costo en el corto tiempo
en relación a la reforma fiscal con un impacto negativo en el ingreso disponible y en el poder de compra de los
consumidores. Sin embargo, el efecto más significativo para la economía fueron los aspectos que tuvieron una
incidencia negativa en las empresas; la eliminación de regímenes especiales y la disminución de las deducibilidades
de impuestos, han sido algunos de los factores que pudieron incidir en una desaceleración que experimentó la
economía mexicana en 2013 y que pudo extenderse a la primera mitad del siguiente ejercicio. Los fiscalistas
argumentaron que la tormenta que ha generado en las finanzas públicas la caída en el precio del crudo, aunado a la
baja en los ingresos petroleros y la volatilidad en el tipo de cambio, provoca que el gobierno por medio del fisco
federal genere estrategias para recaudar mayores ingresos. Por lo cual, lo más importante es que la instrumentación
de las reformas estructurales se lleve a cabo bien y rápidamente para que verdaderamente se genere una dinámica de
crecimiento, en donde se puedan aprovechar las oportunidades que se abran para las Mipymes y mejorar el mercado
laboral y la economía nacional. La reforma hacendaria tiene un objetivo social que carece de muchas situaciones que
puedan favorecer a los pequeños empresarios económicamente, ya que la reforma encarece la nómina con el
aumento de ISR y con la reducción del porcentaje de deducciones autorizadas para las prestaciones del trabajador
aunado a ello, los microempresarios en su gran mayoría, desconocen cómo declarar impuestos, por lo que, deberán
considerar en sus gastos contratar a un especialista, que pueda plantear una opción para aprovechar las deducciones
que logren obtener. Las Mipymes tendrán que buscar la forma de cómo reducir costos para poder mantener su
operatividad, esto puede resultar que la tasa de desempleo aumente de forma constante, tras estos efectos, la
población en México optara por la informalidad más haya de promover la formalidad. “Está comprobado que en
época de incertidumbre económica aumentar los impuestos lejos de beneficiar a la población solo la afectara más.”
Recomendaciones
Los investigadores interesados en continuar nuestra investigación podrían concentrarse realizar estudios de
impacto en las regiones y localidades particulares de su interés.
Referencias
1. CEFP, Diagnóstico del Sistema Fiscal Mexicano, Centro de Estudios de las Finanzas Públicas (CEFP), México, 2010, sección II,
Política de Ingresos
2. Decreto que compila diversos beneficios fiscales y establece medidas de simplificación administrativa. (2013).
3. Godos, M. I. (2008). Evolución del Régimen de Pequeños Contribuyentes en la Ley del Impuesto Sobre la Renta; tratamiento en
la Ley del Impuesto al Valor Agregado y la Ley del Impuesto Empresarial a Tasa Única 2008. Veracruz.
4. INEGI. (2009). Micro, pequeña, mediana y gran empresa: estratificación de los establecimientos: Censos económicos. México.
5. Revista Global de Negocios, Vol. 3, No. 2, 2015, pp. 1-12, Impacto de la Reforma Fiscal en las Microempresas, Chávez Macías
Adriana Guadalupe, Peña Cárdenas Maricela Carolina, Hernández Mesta Mariel. Universidad Autónoma de Coahuila-México
6. Ley del Impuesto Sobre la Renta. (2014). México.
7. Procuraduría de la Defensa del Contribuyente. (2013). Régimen de Incorporación Fiscal. Pequeñas y medianas empresas.2012
GCBF Vol. 7 No. 2 ONLINE.
Notas Biográficas
MTE Francisco Hernández Quinto, Maestro en Tecnología Educativa, Docente de Tiempo Completo e Integrante del Comité de Investigación
en el Instituto Tecnológico Superior de Libres, en México, adscrito a la carrera de Gestión Empresarial y sus áreas de interés son Finanzas,
Economía y Cultura Organizacional.
M.C. Rodrigo González Ramírez, Maestro en Contribuciones, Docente de Tiempo Completo en el Instituto Tecnológico Superior de Libres, en
México, adscrito a la carrera de Gestión Empresarial y sus áreas de interés son contribuciones y contabilidad financiera.
L.A.C.P. Monserrat Aguayo Apreza, Docente en el Instituto Tecnológico Superior de Libres, en México, adscrita a la carrera de Gestión
Empresarial y sus áreas de interés Administración y ciencias políticas y sociales.
M.A. Arturo Ernesto Mares Gardea, Maestro en Administración, Docente y Miembro del Consejo Consultivo de Investigación y Posgrado del
Instituto Tecnológico de Parral, en México.
Conveniencia de utilizar un PokaYoke. “Mientras el proceso es más repetitivo, mayor dependencia del operario
involucre y cuanto mayor costo por producto tenga, mejor será utilizar un método anti-error. Éste, mayor eficacia
tendrá ya que resolverá más problemas”. (Lopez Mortarotti, 2013) .
Tipos de poka-yoke Será mejor cuanto más simple, existe una gran cantidad de sensores y medidores que pueden
apoyar a sus funciones, como son el caso de:sensores de proximidad, sensores de movimiento, visión artificial, testigos
de nivel de líquidos, barreras fotoeléctricas, termómetros, medidores de presión, contadores detectores de vibración.
Ventajas del Poka-Yoke
Se tomaron tiempos antes de la implementación del poka yoke, ya que lo que se busca es evitar los errores de los
operadores al momento de realizar los kits sin elevar el tiempo de realización del kit, el poka-yoke se debe de adaptar
al tiempo estándar actual, la toma de tiempos se realizó durante 2 semanas cada tercer día. Y se registraron los tiempos,
cada día se tomaron un total de 10 tiempos a diferentes horas. La siguiente tabla muestra los resultados.
Semana 1 día Semana 1 día Semana 1 día Semana 2 día Semana 2 día Semana 2
1 3 5 1 3 día 5
50 50 54 50 56 52
49 47 55 51 54 51
51 49 52 50 52 54
49 53 55 49 56 51
54 50 54 51 54 56
51 52 51 53 53 51
53 59 53 54 56 52
59 55 53 52 54 51
54 53 54 55 51 53
49 58 56 51 52 50
54.5
54.0
53.5
53.0
Tiempos
52.5
52.0
51 .5
51 .0
50.5
50.0
0 1 2 3 4 5 6 7 8 9 10 11 12
Dias
Es necesario tomar los tiempos que se hacen para la realización de los Kits antes de la implementación del poka
yoke para conocer la situación actual de la estación y después de ser implementado para verificar que se mejoró el
proceso sin impactar negativamente en la realización del kit y eliminando el error propio de la estación con la ayuda
del poka-yoke que es el empaque de kits incompletos. Como se puede observar el tiempo estándar de la realización
del kit actual oscila entre los 51.6 y 53.8 segundos, el promedio actual es de 52.6 segundos. Se llevó a cabo un registro
de los rechazos que se hacen durante un mes y estos se graficaron por semanas. En la siguiente grafica se muestra la
cantidad de rechazos que se hacen semanalmente sin el poka-yoke implementado.
5
Rechazos
0 1 2 3 4 5
Semanas
Como se muestra en la gráfica anterior los rechazos de calidad debido a componentes faltantes en los kits son
elevados, esto nos indica que hay semanas en las que se realiza 1 rechazo diario.
El mes en el que se cuantificaron los rechazos se realizó un total de 62 órdenes de trabajo con diferentes cantidades
de kits en tan solo el primer turno, esto nos indica que el margen de error es de 29%.
Al estar implementado el poka-yoke se mostrara en graficas los rechazos de un mes y se comprobará la diferencia
en el número de rechazos hechos antes y después del poka-yoke.
El siguiente paso fue elegir el poka-yoke que más se adecuara a la estación de kits (empaque), se analizaron varias
opciones tales como la báscula que se descartó debido a que algunos componentes son muy ligeros y son difíciles a la
báscula de detectar, se realizaron pruebas con una báscula y se encontró que entre el peso de una bolsa de componentes
y otra con la misma cantidad de componentes hay una diferencia mínima de .002 Kg. y ese es el peso de uno de los
componentes más ligeros, por lo que la idea fue descartada.
Se revisó después las opción del sistema pick to light (agarrar a luz), que funciona con sensores de movimientos
que garantizan que el operador introducirá la mano en el bin y le da un seguimiento específico al operador. Pero debido
a su alto costo tuvo que ser descartado ya que se realizaron varias cotizaciones y todas fueron bastante elevadas en
precio por lo que se decidió buscar una opción más económica que igual pudiera lograr la meta establecida, además
el sistema pick to light no garantiza que el operador al introducir la mano al bin tome una pieza, solo garantiza que el
operador introduzca la mano, otra razón por la que fue descartado. Se decidió crear un molde de formas para la mesa
de trabajo de polipropileno con las formas de los componentes que se utilizan para la creación de los kits, de esta
manera el operador antes de empezar a trabajar busca el modelo que trabajara en la pantalla de las ayudas visuales y
al notar cuales son los componentes que empleara destapa los moldes necesarios, procede a ir tomando de uno por
uno todos los componentes necesarios y los va colocando dentro de los moldes correspondientes, una vez que todos
los moldes están llenos procede a empacarlos en la bolsa, de esta manera el operador se asegura de que ningún
componente le falta ya que todos los moldes deben de ser llenados.
Después se hizo un diseño del molde de formas de los componentes que conforman los kits.
Una vez realizado el diseño del molde de formas, se realizó una lista del material, los documentos y los dispositivos
necesarios para que la estación sea lo más apropiada para el operador, una de las cosas que se analizaron fueron los
movimientos del operador al momento de realizar el kit y se observó que cuando el kit está completo el operador le
hace un nudo a la bolsa y en esa acción pierde un total de 6 segundos y aunque no es el fin principal del poka-yoke la
reducción del tiempo de la operación se decidió agregar un dispositivo a la mesa de la estación para que el operador
cierre la bolsa de forma más rápida esto disminuyo el tiempo de 6 a 3 segundos en el cierre de la bolsa, otro elemento
que es necesario para la operación son los bins para colocar los componentes, se observó que no hay suficientes para
colocar todos los componentes y en veces es necesario colocarlos en la mesa de la estación que es exclusiva para la
realización del kit, es necesario que los componentes que hay en los bins estén identificados por eso se realizó un
sistema tarjetero para la identificación de cada componente que se encuentra en los bins que consiste en colocar en el
bin una tarjeta con el número de parte de cada componente, para cada número de parte de las ordenes de trabajo hay
un conjunto de tarjetas que contiene todos los números de parte de cada componente que se incluye, también es
necesario contar con una ayuda visual que le muestre al operador los componentes que debe de llevar cada número de
parte de la orden de trabajo, originalmente se tenía una lista en físico que mostraba todos los componentes de cada
número de parte pero el operador perdía tiempo en buscar entre la lista el número de parte que iba a trabajar ya que
en total hay 206 así que se instaló una computadora con una pantalla grande que le permita al operador encontrar
fácilmente el número de parte de la orden que se va a trabajar y en la pantalla se muestran todos los componentes
necesarios, de esta forma el operador solo tiene que voltear a ver la pantalla que está enfrente de el en caso de
necesitarlo. Lo siguiente fue realizar un instructivo de operación que le muestra al operador cada paso a seguir para la
realización del kit y este mismo será actualizado al momento de ser instalado el poka-yoke para que el operador pueda
ver cómo funciona dicho sistema y le sea más fácil realizar su trabajo.
Una vez instalada una prueba piloto se realizó un entrenamiento para los operadores del área, donde se les hizo
saber cómo sería su nueva forma de trabajar, el poka-yoke es realmente fácil de utilizar ya que el operador solo tiene
que colocar el componente en su molde y una vez que todos los moldes necesarios estén llenos con los componentes
entonces procede a empacarlos en la bolsa.El siguiente paso fue tomar tiempos de lo que tarda el operador en realizar
el kit con el nuevo sistema empleado.Se analizó el nuevo sistema poka-yoke empleado y se recopilaron datos que
verificaron la hipótesis que se tenía de que el operador al tener que realizar más movimientos para completar el kit, el
tiempo de realización del kit se aumentaría, la siguiente tabla muestra la información recopilada durante 1 semana.
Se instaló en la estación de trabajo y nuevamente se le tomaron tiempos al trabajador para ver si el sistema
implementado resultaría positivo, se tomaron 10 tiempos en un día a diferentes horas, a continuación la gráfica que
muestra los resultados:
53
52
Segundos
51
50
49
48
47
1 2 3 4 5 6 7 8 9 10
Tiempo
2
Rechazos
1 2 3 4
Semana
De la gráfica anterior que muestra que en un periodo de 4 semanas se produjeron 9 rechazos de calidad, solo 1 de
ellos fue debido a kits incompletos.
Esto demuestra la eficacia del poka yoke implementado ya que logro reducir significativamente la cantidad de
rechazos realizados por kits incompletos, los resultados de los rechazos que se tomaron dentro de un mes sin el poka
yoke mostraron que en un mes había 18 rechazos de calidad.
La siguiente grafica muestra la comparación de los rechazos de calidad con y sin poka yoke implementado.
Al ser reducido el número de rechazos de calidad en un periodo de cuatro semanas se observa que el poka yoke es
eficaz y por lo tanto logro su objetivo principal.
Se logró la reducción del margen de error del operador estando originalmente en 29% y disminuyendo hasta el
1.43%.
Conclusiones
El poka-yoke implementado resulto ser eficaz pero poco eficiente ya que el operador al realizar más movimientos
se tardaba más en realizar un kit, dado este problema el poka-yoke perdía una de sus principales características que es
el ser eficiente. Para solucionar este nuevo problema que surgió a través de la implementación del poka-yoke se decidió
crear un sistema denominado “sub-kits” con el que se buscó la eliminación de los movimientos excesivos del operador
para lograr la reducción del tiempo de la realización de un kit. El sistema implementado tuvo éxito al lograr que el
tiempo se redujera de 52.6 segundos hasta 50.2 segundos, esto es basado en el tiempo original que tardaba el operador
antes de la implementación del poka-yoke Finalmente el objetivo principal fue alcanzado logrando la reducción de
los rechazos de calidad debido a kits incompletos, reduciendo el margen de error del operador de un 29% a un 1.43%
y el poka-yoke se ajustó al tiempo establecido para la realización de un kit.
Referencias
Bose, R. (1995). Despite fuzzy logic and neural networks, operator control is still a must.
Fantin, I. (2014). Applied Problem Solving: Method, Applicarions, Root Causes, Countermeasures, Poka Yoke and A3. Milan, Italy: CreateSpace
Independent Publishing Platform.
Hirano, H. (1990). Poka Yoke: Improving Product Quality by Preventing Defects. Madrid: S.A. TGP. TECNOLOGIA DE GERENCIA Y
PRODUCCION.
Leanroots. (n.d.). Leanroots. Retrieved Agosto 15, 2015, from Leanroots: www.leanroots.com
Lopez Mortarotti, I. E. (2013). Implementacion del metodo antierrores: Poka Yoke. Retrieved Agosto 15, 2015, from edutecne:
www.edutecne.utn.edu.ar
Shigeo, S. (1986). Zero Quality Control: Source inspection and the Poka Yoke System. USA: Productivity Press.
Shigeo, S. (1997). Mistake-proofing for operators: the ZQC. USA: Productivity Press.
Sigma Ingenieria. (n.d.). Sigma Ingenieria. Retrieved Agosto 15, 2015, from Sigma Ingenieria: www.sigmaingenieria.com
Resumen—En una planta productora de cemento, una tarea clave es el enfriamiento de uno de sus componentes
mayoritarios en volumen: El clinker. Se ha observado que el enfriamiento a base de aire no es tan eficiente ya que origina
una reacción reversible en la composición de fases cristalográficas, para tal efecto se ven afectadas las fases de silicatos
dicálcicos [Ca2 SiO4 (Belita)] y tricálcicos [Ca3(SiO4)O (Alita)] con un aumento de tamaño de los cristales alterando la
calidad del producto final el cemento. Este estudio propone el desarrollo de un método alterno a base de un enfriamiento
abrupto utilizando agua en los nódulos de clinker lo cual, se considera, permitirá una fase cristalográfica estable y por ende
aumentará la calidad del cemento producido en base al clinker enfriado.
Palabras clave—Clinker, enfriamiento, fases, silicatos.
Introducción
El enfriamiento abrupto del clinker permite que la reacción de las fases sea irreversible, y si se cuenta con un sistema
que aporte una rápida pérdida de temperatura del material clinkerizado, esta acción ayudará a mejorar la calidad del
clinker, también permitirá una reducción de costos de producción al consumir menos energía en los molinos de clinker
al observar un índice de molturabilidad menor.
En el proceso de calcinación del clinker la temperatura promedio con que opera el horno industrial es de 1310 ºC.
El clinker caliente, a la salida del horno, se trata seguidamente en los enfriadores satelitales del mismo. Lo que todos
los enfriadores satelitales de un horno industrial para clinker tienen en común, es el flujo directo de aire de
enfriamiento a contracorriente o transversalmente a través del clinker y que el aire caliente en su totalidad o en parte,
sirve como aire secundario para la combustión en el horno. El enfriamiento del clinker influye sobre su estructura,
composición mineralógica, molturabilidad y con ello sobre las propiedades del cemento que con él se fabrique.
El enfriamiento del clinker es necesario porque:
• El clinker incandescente no es transportable.
• El clinker caliente influye desfavorablemente en la molienda del cemento.
• El aprovechamiento del contenido térmico del clinker caliente disminuye los costos de producción.
• Un proceso de enfriamiento adecuado perfecciona las propiedades del cemento. (Duda, 1977)
La velocidad de enfriamiento del clinker influye en la relación entre fase cristalina y vítrea del Clinker. Por
enfriamiento lento, casi todos los componentes cristalizan, mientras que el enfriamiento rápido frena la formación de
cristales y, por ello, una parte del fundido se solidifica en estado vítreo. El enfriamiento rápido impide además el
crecimiento de los cristales. El enfriamiento rápido influye especialmente sobre el comportamiento del óxido de
magnesio y, con ello, sobre la estabilidad del volumen de cemento fabricado con el clinker. Cuanto más rápido es el
enfriamiento del clinker, tanto menos numerosos serán los cristales de periclasa (MgO) que hayan podido formarse a
partir del material fundido (Duda, 1977). Se requiere continuar con pruebas para mejorar la calidad del cemento a
través de un clinker con fases cristalográficas estables, una de estas pruebas es utilizar métodos alternativos y de bajo
costo para el enfriamiento del clinker.
Para realizar la presente investigación fue necesario llevar a cabo las siguientes actividades:
• Obtener una muestra validada y documentada, así como definir los equipos y reactivos que se requerirán.
• Establecer las características y condiciones para llevar a cabo la calcinación del material a nivel piloto.
• Llevar a cabo las actividades a nivel laboratorio y piloto
• Analizar los resultados obtenidos de los niveles laboratorio y piloto.
• Demostrar los resultados obtenidos en el estudio.
1
Ing. Luis Alfredo Hernández Salas, alumno de la Maestría de Ingeniería Industrial del Instituto Tecnológico de Chihuahua II,
Laboratorista del Grupo Cementos de Chihuahua lhernansa@gcc.com (autor corresponsal)
2
Dr. Mario Antonio Makita Aguilar es Profesor de Maestría e Ingeniería del Instituto Tecnológico de Chihuahua II
m.makita@itchihuahuaii.edu.mx
Cuadro 1. Análisis FRX de crudo por lote. Cuadro 2. Análisis FRX de clinker por diseño.
Para llevar a cabo el enfriamiento abrupto con aspersión de agua se colocará un dispositivo en la caída del material,
el cual contará con un regulador para el agua RMA de 100 PSI y Humbold 200 kPa y otro para el aire, marca Fisher
Controls Tipo 67CFR-224 200 PSI, éste último será fijo, por lo cual el agua será una variable controlable. El material
producido y enfriado será recolectado en un recipiente metálico en cada hora de producción, se analizará y se
resguardará en bolsas de plástico para evitar se intemperice e hidrate por humedad del medio ambiente. En la Figura
1 se muestra el dispositivo de control para el agua.
Cuadro 4. Resultados reales para el flujo de agua en los cinco diseños experimentales.
Resultados
Los diseños del 1 al 5 tienen la característica de contar con aspersión de agua para lograr el enfriamiento abrupto,
aparte de estos diseños se realizó la corrida de un testigo o patrón el cual no llevó agua y/o aire, mientras que el diseño
6 se realizó solamente con aire para el enfriamiento. La operación de cada diseño constó de 9 horas continuas de
producción. La información de los parámetros de calcinación por diseño se aprecia en los Cuadros del 5 al 11.
Figura 2. Análisis DRX de Patrón Piloto . Figura 3.Análisis DRX de Patrón Producción.
Cuadro 12. Resultados de resistencia corrida 1. Cuadro 13. Resultados de resistencia corrida 2.
Conclusiones
Al contar con información de análisis de fluorescencia y Difracción de Rayos X, así como resistencias a la
compresión de cubos de mortero, permite relacionar la información resultante y demostrar la hipótesis de que al lograr
un enfriamiento en la producción del clinker ayuda en la estabilización de las fases cristalográficas mejorando
propiedades mecánicas del cemento producido a base del clinker obtenido.
En este trabajo se estudió el comportamiento del clinker enfriado con aspersión de agua por medio de análisis de
fluorescencia y difracción de Rayos X, obteniendo resultados aceptables para poder llevar el estudio a un nivel
industrial con un previo análisis de factibilidad.
Los resultados demuestran la necesidad de contar con un buen sistema de enfriamiento a la salida del material ya
sea por medio de aire, como lo sería un enfriador de placas o un sistema de aspersión de agua en los enfriadores
satelitales que operan actualmente. Es indispensable pensar que la calidad del clinker puede mejorar al optimizar el
enfriamiento y con ello reducir la dosificación en la producción del cemento manteniendo los mismos estándares de
calidad. Algo inesperado en la investigación fueron los valores arrojados por el análisis de fluorescencia de Rayos X,
especialmente en la muestra del Diseño 4, la cual mostró los mejores resultados en resistencias a la compresión, pero
se debe de tener en cuenta que el porcentaje de las fases son estimadas mediante fórmulas de Bogue que utilizan los
valores de óxidos para su estimación. En los difractogramas correspondientes a cada muestra se observa por lo general
que están constituidas principalmente por Ca2 SiO4 (Belita) y Ca3(SiO4)O (Alita), en poca cantidad la periclasa MgO
y en muy poca presencia relativa se encuentra la Cal (CaO).
Recomendaciones
Al realizar la prueba en un nivel piloto se debe considerar que las variables son muy diferentes en un nivel industrial
y sería un reto poder llevar el enfriamiento del clinker a dicho nivel ya sea por medio de un enfriador de placas o un
sistema de aspersión de agua en los enfriadores satelitales
Referencias
ASTM. 2013. Norma Americana C-109-13e Compressive strength of hydraulic mortars
Labahn O. y B. Kohlass. 1985. Prontuario del cemento. 5ª Edición. Editores Técnicos Asociados.
Universidad de Alicante, consultada por Internet el 02 de marzo del 2016. Dirección de internet:
http://sstti.ua.es/es/instrumentacion-cientifica/unidad-de-rayos-x/espectroscopia-de-fluorescencia-de-rayos-x.html
Duda W.H. 1977. Manual Tecnológico del Cemento. Editores Técnicos Asociados.
Resumen— En este trabajo se propone la creación de un criptosistema de flujo basado en criptografía caótica, mediante
la generación de números pseudoaleatorioas (PRNGs); en la primera etapa el texto claro es sometido al proceso de
compresión de un árbol binario de Huffman, lo que permitirá en primera instancia la compresión del texto a cifrar, una
vez obtenido el código binario, se realiza su adecuación para convertirlo a codificación decimal y su posterior combinación
con los números pseudoaleatorios generados, por una semilla única mediante el mapa caótico Tent Map, lo que da por
resultado un texto comprimido y codificado; el proceso de desencriptación de los datos se realiza mediante el inverso de
dicho proceso.
Introducción
La Teoría del Caos se aplica a muchas ramas de la ciencias y ha sido una alternativa en la búsqueda de la
seguridad de la información, encontrando bastante aceptación particularmente en al área de la criptografía. En este
trabajo se presenta la realización de un algoritmo de cifrado de flujo de información para la encriptación de Texto,
mediante un sistema dinámico, no lineal, determinístico que muestra una dependencia muy sensible a las
condiciones iniciales y presenta una evolución a través de un espacio de fase que parece ser aleatorio, combinándolo
con el proceso de compresión de un árbol binario de Huffman, estas propiedades proporcionan un potencial para
aplicaciones en criptografía.
Descripción del Método
El método propuesto utiliza inicialmente el método de compresión de Huffman, buscando poder representar un
conjunto de símbolos (o cadena de símbolos) obtenidos a partir de un cierto alfabeto, usando el menor número de
bits posible, posteriormente se realiza el desarrollo del mapa caótico Tent map, para la generación de números
pseudoaleatorios, los cuales se utilizaran para realizar la combinación del código binario obtenido en Huffman, con
los valores obtenidos del mapa caótico, pero preservando en todo momento la capacidad de descomprimir y
decodificar la información.
Criptosistema
Supóngase que una entidad a la cual se le denomina transmisor, desea enviar un mensaje a otra la cual se le
denomina receptor. Más allá de que el transmisor cumpla con enviar el mensaje, desea asegurar que nadie lea su
mensaje. En criptografía a este mensaje se le conoce como texto plano o texto claro. Al proceso de ocultar la
información que contiene un mensaje empleando algún método en particular, se le conoce como cifrado. Un
mensaje cifrado se le conoce como criptograma. El proceso de recobrar el texto claro a partir del criptograma se le
conoce como descifrado. El sistema que realiza ambas operaciones de cifrado y descifrado se le conoce como
criptosistema.3 Figura 1.
Un buen sistema criptográfico será aquel que ofrezca un cifrado sencillo pero un descifrado imposible o en su defecto
muy difícil para una tercera entidad.2
1
L.I. Oscar Arturo Hernández Vertiz Estudiante de la Maestría en Tecnologías de la Información y
Telecomunicaciones en la Universidad Politécnica de Pachuca, Hidalgo, México vertizosc8@gmail.com
2 M en C. José Miguel Liceaga Ortiz de la Peña Profesor del Área de Telemática de la Universidad Politécnica de
lezama@upp.edu.mx
Codificación Huffman
Huffman es un algoritmo usado para compresión de datos. El termino se refiere al uso de una tabla de códigos de
longitud variable para codificar un determinado símbolo (como puede ser un carácter en un archivo), donde la tabla
ha sido rellenada de una manera específica basándose en la probabilidad estimada de aparición de cada posible valor
de dicho símbolo. Fue desarrollado por David A. Huffman mientras era estudiante de doctorado en el MIT, y
publicado en “A Method for the Construction of Minimum-Redundancy Codes”. Para poder utilizar el algoritmo de
Huffman es necesario conocer de antemano las frecuencias de aparición de cada símbolo, y su eficiencia depende de
lo próximas a las frecuencias reales que sean las estimadas. Algunas implementaciones del algoritmo de Huffman
son adaptativas, actualizando las frecuencias de cada símbolo conforme recorre el texto. 1
El mapa caótico Tent Map utilizado en nuestro esquema está representado por Eq. (1).
1
𝑢𝑥 𝑢≤2
𝑓(𝑥) = { 1 (1)
𝑢 (1 − 𝑥) 𝑢 ≥ 2
Y su representación gráfica se representa como un Triángulo que hace referencia a una Tienda de Campaña como se
observa en la Figura 2.
El criptosistema propuesto puede dividirse en dos procedimientos principales, Huffman como un método de
normalización de probabilidades y también de compresión2 y el segundo correspondiente al mapa caótico para la
generación de números pseudoaleatorios:
Huffman
1. De un texto plano, contar cuantas veces aparece cada carácter en el fichero y obtener una lista con la
información de caracteres y frecuencias.
2. Ordenar la lista de menor a mayor en función de la frecuencia.
3. Se crean varios árboles, uno por cada uno de los símbolos del texto, cada uno de los árboles en un nodo sin
hijos, y etiquetado cada uno con su símbolo asociado y su frecuencia de aparición.
4. Se toman los dos árboles de menor frecuencia, y se unen creando un nuevo árbol. La etiqueta de la raíz será
la suma de las frecuencias de las raíces de los dos árboles que se unen, y cada uno de estos árboles será un
hijo del nuevo árbol. Ahora también se etiquetan las dos ramas del nuevo árbol: con 0 la de la izquierda, y
con un 1 la de la derecha.
5. Se repite el paso 2 hasta que sólo quede un árbol.
6. Con este árbol se puede conocer el código asociado a un símbolo, así como obtener el símbolo asociado a un
determinado código. Lo normal es pasar la asociación de código y símbolos a una tabla de símbolos binarios
que podremos utilizar más adelante en el criptosistema.
1. Para comenzar a generar los números pseudoaleatorios mediante el generador caótico lo primero que debemos
definir es el valor de la semilla, que servirán como base para los valores generados por la ecuación de Tent
map ya mencionada; para el desarrollo de este criptosistema utilizamos las semillas u=1.59999 y x0=0.59999.
2. Ahora podemos empezar a generar los números pseudoaleatorios solo tendremos que definir la cantidad de
números a utilizar en el generador caótico.
3. Ahora ya tendremos los números pseudoaleatorios generados, y que utilizaremos en el criptosistema
propuesto.
Ejemplo:
Suponiendo que el texto claro a encriptar está conformado únicamente por la palabra “ingeniero” es decir 9 caracteres,
y que este es el texto que queremos encriptar, realizaremos el siguiente procedimiento:
Es decir obtenemos un vector binario, conforme a la Tabla 1, ordenado de acuerdo a su frecuencia, es decir un
vector de 16 bits.
g r o i n e
100 101 110 111 00 01
Tabla 1. Vector binario obtenido de Huffman, con 16 bits.
Ordenamos el vector en grupos de 8 bits de derecha a izquierda lo que nos da por resultado 2 bytes. Tabla 2.
1 0 0 1 0 1 1 1 0 1 1 1 0 0 0 1
Convertimos estos estos dos bytes a su correspondiente en valores ASCII decimal para obtener un nuevo vector con
dos elementos. Tabla 3.
151 113
Tabla 3. Vector ASCII decimal resultante.
Ahora dividiremos cada elemento del vector resultante que llamaremos “Huffman” entre 10,000 con el fin de poder
realizar más adelante el procedimiento con los valores pseudoaleatorios. Tabla 4.
0.0151 0.0113
Tabla 4. Vector Huffman, ASCII obtenido dividido entre 10,000.
Como siguiente paso generaremos los números pseudoaleatorios por medio del mapa caótico Tent map, con las
semillas ya mencionadas. Como en este ejemplo sólo tenemos dos valores resultantes del procedimiento de Huffman
es decir 0.0151 y 0.0113, por lo que sólo tendremos que generar dos números pseudoaleatorios que con el mapa
caótico, vector que llamaremos “Tent” Tabla 5.
0.599999000000 0.654111999900
Tabla 5. Números pseudoaleatorios obtenidos
de iterar el mapa caótico
Ahora tenemos dos vectores con dos elementos cada uno, un vector “Huffman” con dos elementos resultado del
procedimiento de Huffman y otro vector “Tent” con dos elementos resultado de iterar el Mapa caótico.
Lo que realizaremos será sumar los elementos con posición impar del vector Huffman con los elementos con posición
impar del vector Tent y los elementos con posición par del vector Huffman, con los elementos con posición par del
vector Tent. Para este ejemplo como se indica en la Tabla 6.
vector Huffman 0.0151 0.0113 vector Tent 0.599999000000 0.654111999900
Huffman [ impar ] Huffman [ par ] Tent [ impar ] Tent [ par ]
Las gráficas de los archivos de texto claro muestran una gran cantidad de picos, mismos que corresponden a la
frecuencia de aparición o repetición de algún carácter en especial.
Una vez que dichos archivos son encriptados, se puede observar como la gráfica de la distribución tiene a ser más
uniforme, esto es, muy parecida a una señal de ruido. Figura 5. Como observamos la distribución de probabilidad es
igual para todos los casos, de lo contrario haría unos mensajes más probables que otros y por lo tanto unas claves de
cifrado más probables.
Figura 5. Probabilidades de caracteres del texto original y probabilidades del texto encriptado
El algoritmo ha sido evaluado usando conceptos fundamentales de Teoría de la información, como Entropía, y
distribución estadística.
Comentarios Finales
El uso de mapeos caóticos como es una forma alternativa en la construcción de la función de transformación.
Alternativamente, se demostró y por tal motivo se concluye que con la acertada elección de un mapeo caótico que
exhiba las propiedades fundamentales de la teoría del caos (mezclado, impredecibilidad de la señal generada y
sensibilidad a las condiciones iniciales) y un adecuado procedimiento de discretización se pueden generar funciones
de transformación seguras.
El algoritmo fue evaluado usando conceptos fundamentales de Teoría de la información como Entropía 4,
Información Mutua y distribución estadística. La distribución estadística del criptosistema es muy parecida a la
distribución estadística de una señal de ruido.
Finalmente y como parte fundamental en el trabajo, se evaluaron las secuencias generadas desde un punto de vista
estadístico usando para ello la suite de pruebas estadísticas de aleatoriedad del NIST (National Institute of Estándar
and Technology).
Referencias
1
Cristian Aguirre Esparza y Edwin Castillo. “Diseño y Programación de un códec Huffman”, Departamento de Ciencias de la Computación y
Electrónica Universidad Técnica Particular de Loja, Ecuador.
2
David Salomon. “Compresión de datos, La referencia completa”. Computer Science Department California State University Northridge
3
José Miguel Liceaga Ortiz de la Peña. “Generación de un cifrado de flujo empleando secuencias beta”, Escuela Superior de Ingeniería Mecánica
y Eléctrica, Unidad Culhuacán.
4
Manuel José Lucena López, “Criptografía y Seguridad en Computadores”, Tercera ed. junio 2001.
Notas Biográficas
L.I. Oscar Arturo Hernández Vertiz Recibió su título de Licenciado en Informática del Instituto Tecnológico de Pachuca en el 2006. Actualmente
se encuentra estudiando la Maestría en Tecnologías de la Información y Telecomunicaciones en la Universidad Politécnica de Pachuca.
M en C. José Miguel Liceaga Ortiz de la Peña es Ingeniero en Comunicaciones y Electrónica de la ESIME Culhuacán perteneciente al Instituto
Politécnico Nacional en el 2000, Maestro en Microelectrónica con especialidad en Sistemas de Comunicación y Actualmente Maestro en la
Universidad politécnica de Pachuca.
M en C. Arturo Lezama León Maestro en Ciencias Computacionales y Profesor Investigador Titular en la Universidad Politécnica de Pachuca,
Hidalgo México.
APENDICE
Resumen— Este trabajo presenta los resultados del estudio e implementación de TI en el Centro de Desarrollo de Software
(CDS) del Instituto Tecnológico Superior de los Ríos (ITSR), para lograr una mayor eficiencia en el proceso de Gestión de
Proyectos de Software. Vinculado al paradigma de los Entornos Colaborativos, se integran herramientas de software para agilizar
la comunicación entre el equipo de desarrollo; además que los gerentes pueden obtener información de manera completa y eficaz.
El CDS del ITSR desarrolla productos de software bajo la norma NMX-I-059/02-NYCE-2011 que define la calidad en el proceso
del desarrollo de software en México. Como resultado se presenta un marco de trabajo de entornos colaborativos adaptado al
modelo MoProsoft, a través de las herramientas: Collabtive, como plataforma de entorno colaborativo; MySQL como manejador
de base de datos y Apache, como servidor web.
Introducción
Actualmente las tecnologías emergentes son definidas como innovaciones científicas que pueden crear una nueva
industria o transformar una existente (Day & Schoemaker, 2000). Estas generan una ruptura entre tecnologías debido
a nuevas formas y necesidades; otro factor es la constante ramificación de cada área tecnológica, que finalmente
convergen en algún punto. Así mismo Day y Schoemaker (2000) afirman que cada una de estas tecnologías ofrece
una rica gama de oportunidades de mercado que proporcionan el incentivo para realizar inversiones de riesgo.
Un entorno colaborativo desde su inicio, ha sido una red con un espacio de trabajo en grupo, el cual es de utilidad
para compartir, almacenar y buscar información; con soportes de tecnología web, sustentada por modelos de
comunicación y cooperación que complementan y refuerzan la eficiencia organizativa al igual que las relaciones de
negocios.
Las empresas deben estar adecuándose a todos los entornos emergentes; tal es el caso de los entornos colaborativos,
los cuales están integrados por una serie de herramientas, que básicamente, son los sistemas que permiten acceder a
los servicios que facilitan la comunicación y trabajo cooperativo entre los miembros del equipo sin necesidad que se
encuentren físicamente reunidos en el mismo lugar.
Se trata de aplicaciones centradas en la colaboración y el trabajo en grupo, independientemente de la ubicación de
los participantes. Su éxito estriba en que permiten interacciones síncronas y asíncronas entre los usuarios de una forma
práctica y sencilla que facilita la comunicación humana con múltiples propósitos.
Los entornos colaborativos están cada vez más presentes en el conjunto de soluciones que las organizaciones
adoptan para optimizar y mejorar las actividades derivadas de la comunicación y gestión del conocimiento táctico en
conocimiento explícito. Los entornos de colaboración están apareciendo incluso en los espacios públicos, en lugares
de la ciudad, aeropuertos, parques y centros de la comunidad en cualquier lugar donde las personas puedan reunirse.
El trabajo colaborativo, tanto en los entornos en línea como físicos, se apoyan en tecnologías como la computación en
la nube, la conexión inalámbrica ubicua, los dispositivos móviles, los mundos virtuales y las herramientas de redes
sociales.
Objetivo
Este trabajo presenta los resultados obtenidos de la implementación de herramientas OpenSource para la Gestión
de Proyectos de software del Centro de Desarrollo de Software del Instituto Tecnológico Superior de los Ríos.
Estructura Metodológica
1 Jorge Luis Herrera Martínez, pasante de Ingeniería en Sistemas Computacionales por el Instituto Tecnológico Superior de los
Ríos, México. Jorge_HerreraM93@hotmail.com
2 El Lic. Edgar García García es Profesor del Instituto Tecnológico Superior de los Ríos (ITSR) y Gestor de Proyectos del Centro
El proceso realizado para la ejecución del proyecto, consistió en analizar las necesidades que se tenían en el
CDS, en consecuencia, se plantea una propuesta de solución. La necesidad de un control eficiente en la Gestión de
proyectos, motivó el uso e implementación de TI para este proceso; sin embargo, las herramientas analizadas
presentaban la oportunidad de experimentar con entornos colaborativos. Así, se analizaron una serie de
herramientas, entre ellas Collabtive; a través de esta herramienta generamos un marco de trabajo, que consistió en
estructurar y adaptar el proceso que lleva a cabo un gestor de proyectos. Por otra parte, se obtuvo la ventaja de un
ambiente cooperativo entre el equipo de desarrollo. De esta forma, se diseña e implementa una plataforma de
entorno colaborativo, mediante herramientas de TI.
La primera etapa, consistió en hacer un estudio de herramientas de entornos colaborativos y su adaptación a
las actividades establecidas por el modelo MoProSoft para el proceso de Gestión de Proyectos (GPY), cuyo
propósito es asegurar que los proyectos contribuyan al cumplimiento de los objetivos y estrategias de la
organización (Oktava, et al, 2005). De igual manera tenga alcance para algunas actividades del proceso de
Administración de Proyectos Específicos (APE).
Software Características
Codendi Especialmente pensada para equipos de desarrollo de software, contiene control de
versiones de código, gestión de errores y documentación, tests y control de todo el
proceso desde que nace la idea hasta que se lanza el programa.
Redmine Incluye calendario y herramienta para crear diagramas de Gantt, mostrando las metas de
cada fase del proyecto.
ProjectPier Con control de revisiones y contenido colaborativo en forma de Wiki, también sirve
como interfaz web para sistemas de control de versiones como Subversion, Git,
Mercurial, Bazaar y Darcs.
Collabtive Proyecto basado en la web, que permite al administrador de la plataforma intercambiar
información, crear tareas, establecer roles de usuario, controlar el avance del proyecto,
entre otras actividades. El programa es de código abierto y cuenta con una interfaz
agradable y fácil de utilizar y entender, ya que está escrito en lenguaje Java y PHP.
Collabtive está capacitado para competir con la versión privativa Basecamp, y tienen una
herramienta que permite importar datos de esa plataforma.
Trac Con control de revisiones y contenido colaborativo en forma de Wiki, también sirve
como interfaz web para sistemas de control de versiones como Subversion, Git,
Mercurial, Bazaar y Darcs.
ProjectHQ Construido con Python, Pylons y SQLAlchemy es un proyecto con base de datos
independiente, permitiendo gestionar diagramas de flujo para controlar las diferentes
fases del proyecto.
eGroupWare Su principal función es permitir a los usuarios gestionar contactos, citas, proyectos y
listas de tareas.
KForge Permite la gestión de diferentes versiones del código de las aplicaciones desarrolladas, de
documentación y de gestión del conocimiento.
OpenGoo Permite la gestión de documentación, emails, tareas de proyectos y gestión del tiempo.
Puede subir y editar documentos online, facilitando el trabajo en grupo.
Mantis Permite la gestión de tareas de proyectos, aunque inicialmente está pensado como bug
tracking (gestión y documentación de errores).
Tabla 1. Software de entornos colaborativos y sus características.
Con base en la tabla 1, se describen las características con las que cuentan algunas herramientas de entornos
colaborativos. Los elementos que se buscaban de acuerdo a los requerimientos y las actividades que realizan el GPY
y el APE eran principalmente el seguimiento de proyectos, calendario, manejo de documentos, sistema de avisos
(Barrera & Yanquen, 2011). Sin embargo, Collabtive es la herramienta que cubre las expectativas y requerimientos
especificados por el CDS del ITSR; además incluye otras características como control de errores, comunicación en
línea, registro ilimitado de usuarios y roles.
Apache 2, PHP 5.1 o superior y MySQL 4. Todos estos elementos se encuentran integrados en un entorno de desarrollo
web de Windows como lo es WAMPSERVER 2.5.
El primer proceso es instalar WAMPSERVER en un servidor local.
Crear la base de datos con sus respectivos lineamientos (utf8_general_ci)
Instalar Collabtive.
Para convertir a Collabtive en plataforma de entorno colaborativo, se configura el archivo httpd.conf:
1. Abrir el archivo ubicado en la dirección \wamp\bin\apache\apache2.4.9\conf\
2. En la línea 279 del código encontramos lo siguiente: Requiere local.
Figura 1. Archivo httpd.conf. Instrucción para configurar el modo de trabajo en línea o local
3. Lo que se encuentra en la línea 279 del código es remplazado por: Requiere all granted.
Comentarios finales
Las herramientas de TI con las que contamos actualmente, pueden marcar una ventaja operativa y competitiva,
siempre y cuando se tenga la visión de usar TI para este fin. La implementación de este modelo está generando
resultados interesantes y desde un principio, ha establecido una nueva forma de comunicación entre gerentes y
operativos de cada proyecto.
Resumen de resultados
Uno de los resultados es el modelo de entrono colaborativo del CDS del ITSR, ajustado a los procesos de
MoProsoft.
Conclusiones
Los entornos colaborativos pueden ser implementados en cualquier tipo de empresa, sin importar su giro, para
que, mediante un equipo dinámico, los proyectos que se desarrollen puedan ser medidos, por lo tanto controlarlos.
Las ventajas de mantener el control del proyecto son muchas, desde el fin máximo de cumplir en tiempo, hasta
poder realizar ajustes, anticipar riesgos e incluso, optimizar recursos asignados o definidos para el proyecto. Los
entornos colaborativos son el futuro, las nuevas generaciones no entienden de trabajos verticales y jerarquías, el
mundo 2.0 se basa en la colaboración y en compartir información, conocimiento, ayuda continua, entre otros. La
mayoría estamos presentes en al menos una red social y es difícil comprender que exista una mayor disponibilidad
de información de nuestra vida personal que acceso a los datos, como insumos, en una organización.
Recomendaciones
Algunas de las recomendaciones con respecto a un entorno colaborativo y las herramientas son:
1. Al usar Collabtive se debe tener en cuenta que no es necesario instalar uno a uno sus requerimientos,
considerando que se tienen herramientas integradas como WAMPSERVER.
2. La plataforma Collabtive tiene una estructura de trabajo, sin embargo, se puede adecuar a las necesidades
de la organización, que permita un entorno colaborativo personalizado.
3. Collabtive puede ser utilizado en una red local, por lo que no es necesario trabajar la plataforma en la
nube.
4. Los entornos colaborativos son los mejores espacios de trabajo, pues nos permiten interactuar de una
mejor manera con el equipo de trabajo.
Referencias
Barrera Ardilla, G.S. y Yanquen Briñez, E. F. “Plataformas Colaborativas”. Reporte de Investigación. Universidad Nacional Colombia. Bogotá.
2011.
Day, G. S., Schoemaker, P. J., & Gunther, R. E. (2004). Wharton on managing emerging technologies. John Wiley & Sons.
Oktaba, H., Esquivel, C. A., Ramos, A. S., Martínez, A. M., Osorio, G. Q., López, M. R., ... & Lemus, M. Á. F. (2005). Modelo de Procesos para
la Industria de Software MoProSoft. Secretaría de Economía.
Notas Biográficas
Jorge Luis Herrera Martínez es pasante de Ingeniería en Sistemas Computacionales por el Instituto Tecnológico Superior de
los Ríos, México. Analista de Sistemas en el Centro de Desarrollo de Software del ITSR.
El Lic. Edgar García García es Profesor del Instituto Tecnológico Superior de los Ríos (ITSR), Maestro en Ciencias de la
Educación por el Instituto de Estudios Superiores de Tabasco, maestrante en Administración de Tecnologías de la Información en
la Universidad Juárez Autónoma de Tabasco; miembro del Padrón Estatal del Investigadores del Tabasco, Gestor de Proyectos y
jefe de análisis del Centro de Desarrollo de Software del ITSR.
El Ing. Luis Alberto de la Cruz Díaz es Profesor del Instituto Tecnológico Superior de los Ríos y Administrador de Proyectos
Específicos del Centro de Desarrollo de Software del ITSR, México. Miembro del Padrón Estatal de Investigadores de Tabasco.
El M.S.I José Francisco Aguilar García es Jefe del departamento de Ingeniería en Sistemas Computacionales del Instituto
Tecnológico Superior de los Ríos, Maestro en Sistemas de Información por la Fundación Arturo Rosenblueth, Gestor de
Negocios del Centro de Desarrollo de Software del ITSR.
Resumen—Se plantea aquí un panorama general y amplio de las Causas y Efectos del Procedimiento
administrativo de Ejecución en México que actualmente se encuentra estructurada en cuatro secciones establecidas
en el capítulo III del Título Quinto en los artículos del 145 al 196-B del Código Fiscal de la Federación;
En este trabajo de investigación se ponen de manifiesto los mecanismos que rompen con la presunción de buna fe
que gozan los gobernados contribuyentes en el ámbito tributario en nuestro país, pues se le otorgan facultades
excesivas a las autoridades fiscales para embargar bienes a su libre albedrío, lo que sólo constituye una forma de
aseguramiento previo que desposee al gobernado contribuyente de sus bienes y capitales, violentándose con esto sus
garantías de seguridad jurídica y posesión.
Palabras Claves: Procedimiento, Ejecución, Embargo, Garantía, Principio.
Introducción
La facultad legal se permite a la autoridad fiscal para decretar la medida de mérito, afectando --a su arbitrio y en
forma desmedida-- el patrimonio de un gobernado, aún y cuando no se haya determinado el incumplimiento de
alguna obligación fiscal, impidiéndosele el desarrollo normal de su actividad, lo que le ocasiona con ese proceder
perjuicios de difícil reparación al no poder cumplir con los compromisos propios de su negocio, ya que sus activos y
pasivos se encontrarían bajo el control irrestricto de la autoridad fiscal.
Situación irregular y contradictoria, ya que no obstante que se hubiera determinado un crédito fiscal a cargo del
contribuyente o gobernado, éste aún no puede ser exigible, pues puede pagarlo, impugnarlo o bien garantizarlo
dentro del plazo legal que establece el artículo 144 del Código Fiscal de la Federación que a la letra señala:
“Artículo 144.- No se ejecutarán los actos administrativos cuando se garantice el interés fiscal, satisfaciendo los
requisitos legales. Tampoco se ejecutará el acto que determine un crédito fiscal hasta que venza el plazo de
cuarenta y cinco días siguientes a la fecha en que surta efectos su notificación, o de quince días, tratándose de la
determinación de cuotas obrero-patronales o de capitales constitutivos al seguro social. Si a más tardar al
vencimiento de los citados plazos se acredita la impugnación que se hubiere intentado y se garantiza el interés
fiscal satisfaciendo los requisitos legales, se suspenderá el procedimiento administrativo de ejecución.
Cuando el contribuyente hubiere interpuesto en tiempo y forma el recurso de revocación o, en su caso, el
procedimiento de resolución de controversias previsto en un tratado para evitar la doble tributación de los que
México es parte, el plazo para garantizar el interés fiscal será de cinco meses siguientes a partir de la fecha en que
se interponga cualquiera de los referidos medios de defensa, debiendo el interesado acreditar ante la autoridad
fiscal que lo interpuso dentro de los cuarenta y cinco días siguientes a esa fecha, a fin de suspender el
procedimiento administrativo de ejecución………”
Lo que violenta la garantía de seguridad jurídica y posesión del gobernado o contribuyente la cual se encuentra
tutelada por el artículo 16 de la Constitución Política de los Estados Unidos Mexicanos al permitírsele la traba sobre
dichos bienes respecto de un crédito fiscal cuyo monto no ha sido determinado ni particularizado, sustentándolo en
que cuando a juicio de la autoridad fiscal exista peligro inminente de que el obligado realice cualquier maniobra
tendiente a evadir su cumplimiento, creándoles una incertidumbre jurídica, ya que en el articulado que se encuentra
en el Código Fiscal de la Federación y que compone al procedimiento administrativo de ejecución, no se exigen
elementos de prueba para concluir de qué forma objetiva el contribuyente realizará la maniobra tendiente a evadir el
cumplimiento de las facultades de comprobación de la autoridad fiscal, por lo que se deja a la apreciación subjetiva
de ésta la forma de ejecutar esa medida cautelar, pues no limita el monto sobre el que pueda practicarse, no obstante
que se genera un acto de molestia al particular al impedirle disponer de sus bienes.
Por lo que al contener el aludido Procedimiento Administrativo de Ejecución los vicios ya descritos, viola las
garantías de seguridad jurídica y posesión tuteladas por el artículo 16 de la Constitución Política de los Estados
Unidos Mexicanos.
Este problema se observa más en el citado articulado del 145 al 196-B del código fiscal de la federación, de donde
podemos apreciar que el artículo 145 del Código Fiscal de la Federación establece lo siguiente:
“CAPITULO III
Del Procedimiento Administrativo de Ejecución
1Profesor
e Investigador de la Universidad Autónoma de Sinaloa y colaborador del Cuerpos Académico de Derecho Constitucional
UAS-187 CA, correo electrónico: eduardoherrera_213@hotmail.com
Sección Primera
Disposiciones Generales
Artículo 145. Las autoridades fiscales exigirán el pago de los créditos fiscales que no hubieren sido cubiertos o
garantizados dentro de los plazos señalados por la Ley, mediante procedimiento administrativo de ejecución.
Se podrá practicar embargo precautorio, sobre los bienes o la negociación del contribuyente, para asegurar el
interés fiscal, cuando el crédito fiscal no sea exigible pero haya sido determinado por el contribuyente o por la
autoridad en el ejercicio de sus facultades de comprobación, cuando a juicio de ésta exista peligro inminente de
que el obligado realice cualquier maniobra tendiente a evadir su cumplimiento. En este caso, la autoridad trabará el
embargo.
La autoridad que practique el embargo precautorio levantará acta circunstanciada en la que precise las razones del
embargo.
La autoridad requerirá al obligado para que dentro del término de 10 días desvirtúe el monto por el que se realizó
el embargo. El embargo quedará sin efecto cuando el contribuyente cumpla con el requerimiento. Transcurrido el
plazo antes señalado, sin que el obligado hubiera desvirtuado el monto del embargo precautorio, éste quedará
firme.
El embargo precautorio practicado antes de la fecha en que el crédito fiscal sea exigible, se convertirá en definitivo
al momento de la exigibilidad de dicho crédito fiscal y se aplicará el procedimiento administrativo de ejecución.
Si el particular garantiza el interés fiscal en los términos del artículo 141 de este Código, se levantará el embargo.
Son aplicables al embargo precautorio a que se refiere este artículo y al previsto por el artículo 41, fracción II de
este Código, las disposiciones establecidas para el embargo y para la intervención en el procedimiento
administrativo de ejecución que, conforme a su naturaleza, le sean aplicables……..”
Observándose a todas luces que permite el embargo precautorio sobre los bienes del contribuyente, pero de su
propia redacción se desprende que se trata de asegurar el interés fiscal en caso de contribuciones pendientes de
determinarse, pues hace referencia a que si dentro de los plazos que el propio código señala, no se dicta la resolución
en que se determine dicho crédito, ese embargo precautorio quedará sin efectos y que, en cambio, si se cumple con
ello, ese secuestro se convertirá en definitivo, prosiguiéndose el procedimiento administrativo de ejecución. De ahí
que se infringe el artículo 16 constitucional al crearse un estado de incertidumbre en el contribuyente que desconoce
la justificación del aseguramiento de bienes para garantizar un supuesto crédito fiscal cuyo monto no se encuentra
determinado. La expresión que utiliza el dispositivo citado de "asegurar el interés fiscal" carece de justificación en
virtud de que la determinación de una contribución constituye un requisito indispensable del nacimiento del interés
fiscal, lo que implica que, si ello no se actualiza, no existen razones objetivas para aplicar la aludida medida
precautoria. Sostener lo contrario propiciaría la práctica de aseguramientos en abstracto, puesto que en esa hipótesis
se ignorarían los límites del embargo, ya que no se tendría la certeza jurídica de la existencia de un crédito fiscal,
como tampoco se tienen todos los datos objetivos para regir la determinación de que el causante va a evadir su
responsabilidad.
Sustentando también este trabajo de investigación en la diversa jurisprudencia que sobre el presente asunto ha
emitido la suprema Corte de Justicia de la Nación y que a la letra dice:
“No. Registro: 200,320
Jurisprudencia
Materia(s): Constitucional, Administrativa
Novena Época
Instancia: Pleno
Fuente: Semanario Judicial de la Federación y su Gaceta
Tomo: II, Septiembre de 1995
Tesis: P./J. 17/95
Página: 27
EMBARGO PRECAUTORIO. EL ARTICULO 145 DEL CODIGO FISCAL DE LA FEDERACION QUE LO
PREVE VIOLA EL ARTICULO 16 DE LA CONSTITUCION. En los términos en que se encuentra redactado el
artículo 145 del Código Fiscal de la Federación, se autoriza la traba del embargo precautorio sobre los bienes del
contribuyente, sin que se encuentre determinada la obligación de enterar tal o cual tributo ni la cuantificación del
mismo, con lo que se infringe el artículo 16 constitucional, al crearse un estado de incertidumbre en el
contribuyente, que desconoce la justificación del aseguramiento de bienes para garantizar un supuesto crédito
fiscal cuyo monto no se encuentra determinado. La expresión que utiliza el dispositivo citado "de proteger el
interés fiscal", carece de justificación en virtud de que la determinación de una contribución constituye requisito
indispensable del nacimiento del interés fiscal, lo que implica que si ello no se actualiza no existen razones
objetivas para aplicar la aludida medida precautoria. Sostener lo contrario propiciaría la práctica de
aseguramientos en abstracto, puesto que en esa hipótesis se ignorarían los límites del embargo ya que no se tendría
la certeza jurídica de la existencia de un crédito fiscal. Por estas razones resulta inconstitucional el precepto
invocado al otorgar facultades omnímodas a la autoridad fiscal que decreta el embargo en esas circunstancias al
dejar a su arbitrio la determinación del monto del mismo y de los bienes afectados; además de que el plazo de un
año para fincar el crédito es demasiado prolongado y no tiene justificación.”
Por estas razones resulta inconstitucional el precepto invocado, al otorgar facultades omnímodas a la autoridad fiscal
que decreta el embargo en esas circunstancias, al dejar a su arbitrio la determinación del monto del mismo.
Planteamiento del Problema
La anterior exposición del campo problemático inicial, ha permitido pasar del tema al problema de este trabajo, ya
que la problematización primaria desarrollada, ha establecido y precisado en lo fundamental lo que se presenta.
Así las preguntas centrales que guían este trabajo de investigación planteado en este proyecto son las siguientes:
-¿Qué tipo de sentimientos guardará el gobernado contribuyente si lo desposeen de sus bienes materiales
dejándolo en zozobra jurídica? ¿El ciudadano contribuyente confiara en esas leyes que se le aplican?
-¿Es viable tener en el artículo 145 del código fiscal de la federación un mecanismo como el embargo precautorio
que en lugar de facilitar el acercamiento de las autoridades fiscales con el gobernador, sea agresora contra este
último?
-¿La aplicación a los gobernados del procedimiento administrativo de ejecución que establece el Código Fiscal de
la Federación en sus artículos del 145 al 196-B, permite realmente al estado consolidar el fin establecido de
salvaguardar el interés fiscal, en beneficio de la sociedad?
-¿Puede existir algún nuevo mecanismo para exigir a los gobernados el cumplimiento de sus obligaciones sin que
se violen sus garantías individuales y sin que se lesione el interés fiscal de la federación, dándole mayor certeza y
seguridad jurídica?
Concepto, Definición y Características Del Procedimiento Administrativo de Ejecución
Previo a establecer el concepto del Procedimiento Administrativo de Ejecución haremos una breve reseña de los
antecedentes que en México tiene.
Antecedentes del Procedimiento Administrativo de Ejecución en México
Los antecedentes constitucionales más antiguos que encontramos en México radican en el mecanismo conocido
como la facultad económico coactiva como se le denominaba anteriormente al procedimiento administrativo de
ejecución, y los cuales los encontramos a partir de la constitución de Apatzingán de 1814, pasando a la de 1824,
1857 y 1917, ya que en ellas se encuentran aspectos esenciales del procedimiento administrativo de ejecución que
contemplan su nacimiento, sin embargo, es en esta última constitución de 1917 en la que con sus diversas reformas
se encuentra vigente y donde podemos encontrar el sustento de este procedimiento administrativo, en sus artículos
14, 16, 22 y 31 fracción IV.
Ahora bien, en todas las culturas que se desarrollaron en México ha existido un procedimiento para que las
autoridades fiscales hagan efectivas las deudas fiscales federales, a este procedimiento se le ha llamado de diversas
formas observándose expresiones tales como: jurisdicción coactiva, jurisdicción económica y facultad económico-
coactiva que van apareciendo en las leyes españolas de la época colonial y que estas se mantuvieron vigentes
durante dicha época para luego transitar al México independiente.
Ya en el México independiente se promulgaron algunas leyes, decretos, reglamentos y circulares, que regularon la
facultad económico-coactiva, entre las se encuentra la ley de 20 de enero de 1837; el reglamento de 27 de enero del
mismo año; la ley de 20 de noviembre de 1838; los decretos de 13 de enero y 18 de septiembre de 1842; 15 de
octubre de 1846 y 6 de octubre de 1848; el circular de 31 de enero de 1854; el decreto de 4 de febrero de 1861; así
como los del 16 de diciembre de 1861 y 12 de julio de 1862; el decreto de 18 de julio del mismo año, y por último
la ley de 18 de noviembre de 1869,2 destacándose entre estas disposiciones la ley del 20 de enero de 1837, por ser la
más controvertida, pues en sus artículos 1, 2, 3 y demás, contemplaba facultades y atribuciones para diversas
autoridades sin necesidad tener que acudir previamente a un juez para ejercerlas lo que evidentemente dio lugar a
que fueran ampliamente impugnadas a través de la interposición de los medios de defensa que existían en esa época.
Por otro lado, no hay que pasar por alto que las facultades y atribuciones que contemplaba esta ley pudieran
considerarse como el origen del procedimiento administrativo de ejecución, ya que fueron retomadas por los códigos
2
Dublain, Manuel y Lozano, José María, Legislación mexicana o Colección de las disposiciones legislativas expedidas desde la
independencia de la república, Treinta Vols., México, 1876. Citado por Sánchez Luna, Gabriela, Facultad económico-coactiva
en el México del siglo XIX, en Memoria del III congreso de historia del derecho mexicano, México, Universidad Nacional
Autónoma de México-Instituto de Investigaciones Jurídicas, 1984. p. 646. http://www.bibliojuridica.org/libros/2/700/42.pdf, 10
de abril de 2010.
fiscales federales de 1938, 1966 y 1981, siendo este último con todas sus reformas el que actualmente regula al
procedimiento administrativo de ejecución y del cual haremos un análisis en el apartado que mas adelante le
corresponde.
Concepto y definición del procedimiento administrativo de ejecución
La naturaleza jurídica del Procedimiento Administrativo de Ejecución recae en que este es un procedimiento de
carácter administrativo, especial y sumario que se inicia de oficio; primeramente es un procedimiento desde el punto
de vista de que se trata de un conjunto de actos concatenados encaminados a la realización de un fin determinado, y no a
la solución de una controversia como sería en el caso de un proceso; “Es un procedimiento administrativo
contradictorio, a pesar de que se sostenga por otros juristas su naturaleza jurisdiccional, ya que se trata de un
procedimiento administrativo porque el órgano que lo ejecuta es la administración y materialmente no tiene como
finalidad la resolución de ninguna controversia”.3 Pero por otro lado tiene el carácter administrativo por el hecho de
que es realizado por la autoridad administrativa y no por la judicial, quedando así evidente, que es iniciado por dicha
autoridad sin necesidad del consentimiento del particular ya que el fin de este es el cobro coactivo de un crédito fiscal
determinado y exigible que no ha sido cubierto o garantizado a tiempo por el deudor; y es especial y sumario porque
sigue una serie de etapas en las que el particular dispone de breves intervenciones, pero que su objetivo es el fin propio o
sea, cubrir el crédito fiscal.
Diferencia entre procedimiento administrativo y proceso administrativo
En la doctrina, en las leyes y en la práctica judicial se habla de proceso, para significar el procedimiento que se
sigue ante los tribunales por quienes desean obtener justicia en un litigio o controversia, cumpliéndose la función
jurisdiccional. Finalmente, la función administrativa también se realiza a través de un procedimiento que debe seguir
la administración como garantía de legalidad de sus acciones ante sí y frente a los administrados.
Luego “Así, se afirma que el proceso es el conjunto de actos realizados conforme a determinadas normas, que
tienen unidad entre sí y buscan una finalidad, que es la resolución de un conflicto, la restauración de un derecho o
resolver una controversia preestablecida mediante una sentencia. Y el procedimiento se entiende como un conjunto
de actos realizados conforme a ciertas normas para producir un acto.15 Para otros, ambos conceptos coinciden en su
carácter dinámico, reflejado en su común etimología, de procedere, avanzar, pero consideran que el proceso, además
de un procedimiento como forma de exteriorizarse, comprende los nexos que entre sus sujetos se establecen durante
la substanciación del litigio.16 También, se dice que el proceso es una institución jurídica de satisfacción de
pretensiones confiadas a un órgano estatal instituido especialmente para ello, independiente y supraordenado a las
partes, y que el procedimiento es un concepto puramente formal, esto es, la serie o sucesión de actos regulados por
el derecho”4 donde se ve clara la diferencia que existe entre el procedimiento administrativo y el proceso
administrativo. Pues se determina que el primero es el cauce legal que sigue la administración para la realización de
su actividad o función administrativa, en cambio el segundo es la vía legalmente prevista para canalizar las acciones
de quienes demandan justicia ante los tribunales a fin de resolver una controversia administrativa es decir un
conflicto originado por un acto o una resolución administrativa que se reputa ilegal.
Características del procedimiento administrativo de ejecución
Ahora bien, es preciso indicar que las características esenciales del procedimiento administrativo de ejecución
mexicano son el que:
a). Es un procedimiento de carácter administrativo.
b). Especial y sumario que se inicia de oficio.
c). Primeramente es un procedimiento desde el punto de vista de que se trata de un conjunto de actos concatenados
encaminados a la realización de un fin determinado, y no a la solución de una controversia como sería en el caso de un
proceso judicial;
d). Es administrativo por el hecho de que es realizado por la autoridad administrativa y no por la judicial, ya que es
iniciado por dicha autoridad sin necesidad del consentimiento del particular ya que el fin de este es el cobro coactivo de
un crédito fiscal determinado y exigible que no ha sido cubierto o garantizado a tiempo por el deudor;
e). Sigue una serie de etapas en las que el particular dispone de breves intervenciones, pero que su objetivo es el fin
propio o sea, cubrir el crédito fiscal.
3Vease en este sentido a De la Garza, Sergio Francisco, Derecho Financiero Mexicano, México, Editorial Porrúa, 24º Edición,
2002, p. 808-811., Sánchez Gómez, Narciso, Derecho Fiscal Mexicano, México, Editorial Porrúa, 2001, p. 525; Quintanilla,
Jesús y Rojas, Jorge, Derecho Tributario Mexicano, México, Editorial Trillas, 1991, p. 203; Rodríguez Lobato, Raúl, Derecho
Fiscal, México, Editorial Oxford, 2ª Edición, 1998, p. 240.
4Márquez Gómez, Daniel, Los procedimientos administrativos materialmente jurisdiccionales como medios de control en la
administración pública, México, UNAM, Instituto de Investigaciones Jurídicas, 28, 2003. pp. 32 y 33.
Esta apreciación es de suma importancia, ya que la inclinación de la legislación fiscal ha sido de dotar con el
mayor número de facultades a las autoridades, para que mediante su ejercicio, procedan a verificar la situación fiscal
del contribuyente mediante la realización de diversos actos constituidos como procedimientos administrativos, los
que se dividen prácticamente en dos que se complementan y retroalimentan entre sí, el primero es el concerniente a
la fiscalización y el segundo al recaudatorio.5 Aunque estos procedimientos administrativos han sido considerados
como facultades de las autoridades fiscales, por Diana Bernal Ladrón de Guevara. 6 Sin embargo el Código Fiscal de
la Federación no los contempla de manera ordenada, ni los clasifica, sino simplemente establece sus atribuciones.
Autoridades fiscales que aplican el procedimiento administrativo de ejecución
En México actualmente son varias las autoridades fiscales las encargadas de llevar a cabo la labor del ejercicio de
las facultades de comprobación, entre estas se encuentran el Servicio de Administración Tributaria, al Instituto
Mexicano del Seguro Social y al Instituto del Fondo Nacional de la Vivienda para los Trabajadores, por ser estas las
que con mayor frecuencia lo utilizan.
Descripción del método
La investigación es de tipo documental bibliográfica porque está basada en el análisis de diferentes legislaciones y
doctrinarios. Por último, es indispensable señalar que el desarrollo de la presente investigación se realizó apegado a
la metodología deductiva, histórica, comparativa, analítica, exegética, o sea, en la investigación de lo general a lo
particular.
Comentarios Finales
Resumen de resultados
En este trabajo de investigación se estableció un marco teórico en el cual en principio se aborda el trabajo desde el
análisis del articulado en que se encuentra inmerso actualmente el Procedimiento Administrativo de Ejecución en
México en el Código Fiscal de la Federación, retomando el punto de las causas y efectos que su aplicación tiene en
los contribuyentes gobernados, así como los diversos criterios jurisprudenciales que se han emitido por la Suprema
Corte de Justicia de la Nación al respecto.
Conclusiones
El procedimiento administrativo de ejecución, se denomina también como la facultad económica coactiva y tiene
por finalidad el cobro de los créditos fiscales a los deudores fiscales. Como se desprende en el presente estudió el
procedimiento administrativo de ejecución, es de naturaleza administrativa, tanto subjetiva como objetiva al ser
ejercido por órganos de la administración pública, se desarrolla mediante una serie de actos que tienen el carácter de
administrativos que son regulados por una ley administrativa, causando zozobra jurídica y efectuando daños en el
patrimonio y capital de los contribuyentes gobernados a los que se les aplica.
Recomendaciones
Los investigadores interesados en continuar esta investigación podrán concentrarse en los daños y su magnitud,
así como en el terrorismo que esto causa a los contribuyentes gobernados que son afectados por este Procedimiento
Administrativo de Ejecución. Por otro lado tenemos a los gobernantes encargados de la planeación y proyección del
panorama fiscal del país quienes deberán tomar en cuenta los resultados aquí descritos para una mejoría en el
servicio, atención, desarrollo y cumplimiento de los mismos.
Referencias
Bernal Ladrón de Guevara, Diana, Enciclopedia Jurídica Mexicana, México, Porrúa, 2004, 4 t.
De la Garza, Sergio Francisco, Derecho Financiero Mexicano, México, Editorial Porrúa, 24º Edición, 2002.
Doricela Marbak Cerecedo, Derecho financiero público, 2ª. ed., México, McGraw-hill, 2002.
Dublain, Manuel y Lozano, José María, Legislación mexicana o Colección de las disposiciones legislativas expedidas desde la independencia
de la república, Treinta Vols., México, 1876. Citado por Sánchez Luna, Gabriela, Facultad económico-coactiva en el México del siglo XIX, en
Memoria del III congreso de historia del derecho mexicano, México, Universidad Nacional Autónoma de México-Instituto de Investigaciones
Jurídicas, 1984. http://www.bibliojuridica.org/libros/2/700/42.pdf, 10 de noviembre del 2014.
Márquez Gómez, Daniel, Los procedimientos administrativos materialmente jurisdiccionales como medios de control en la administración
pública, México, UNAM, Instituto de Investigaciones Jurídicas, 28, 2003.
5Véase Doricela Marbak Cerecedo, Derecho financiero público, 2ª. ed., México, McGraw-hill, 2002, p. 195.
6 Véase Bernal Ladrón de Guevara, Diana, Enciclopedia Jurídica Mexicana, México, Porrúa, 2004, 4 t., p.22.
Quintanilla, Jesús y Rojas, Jorge, Derecho Tributario Mexicano, México, Editorial Trillas, 1991.
Rodríguez Lobato, Raúl, Derecho Fiscal, México, Editorial Oxford, 2ª Edición, 1998.
Sánchez Gómez, Narciso, Derecho Fiscal Mexicano, México, Editorial Porrúa, 2001.
Resumen—En el presente documento se presentan los trabajos realizados en una empresa dedicada al mantenimiento de
trasformadores, en la renovación de su horno secador al cual no le funcionaba el sistema de control de temperatura. Este
era controlado de manera manual por un operario, limitando el uso del horno a 8 horas al día y aumentando las
probabilidades de falla debido al descuido del operador. Considerando las limitaciones que la empresa solicito, la
solución debería ser económica y se debería de reutilizar la mayor parte posible del equipo existente, se adecuó al horno
un sistema de control de temperatura y tiempo sencillo, económico y que además reutilizaba la mayoría de los equipos
ya existentes, aprovechando los conocimientos del alumno residente en cuanto al uso de microcontroladores y
cumpliendo con las expectativas de la empresa.
Palabras clave—horno de secado, control de temperatura, sistemas de control.
Introducción
Control automático es la acción de mantener un valor deseado para una cantidad o condición física, para lo cual se
mide su valor actual y se compara con el valor de referencia, luego utiliza la diferencia para proceder a reducirla
mediante una acción correctiva (Chiluisa Jaime).
Los hornos de secado son una herramienta muy importante en el proceso de fabricación de transformadores, Con
ellos es posible reducir los tiempos del proceso de secado y mejorar la calidad de los acabados. Para lograr cumplir
los parámetros establecidos por las normas nacionales e internacionales, es imprescindible tener un control de
temperatura, que mantenga la misma dentro de un rango que pueda garantizar los niveles de aislamiento requeridos.
Los hornos actualmente utilizan resistencias eléctricas para realizar el proceso de secado. Esto representa un alto
consumo de energía, lo que se traduce en costos elevados dentro del proceso de fabricación( Li Chang, 2015).
La importancia de estos hornos es vital ya que su correcto funcionamiento depende en buena medida la calidad
general del transformador y la necesaria agilidad del proceso productivo. Teniendo en cuenta lo anteriormente
señalado, estos deben contar para su adecuada labor de un sistema de control y fuerza capaz de satisfacer los
siguientes requerimientos:
• Disponer de una fuente de alimentación a nivel de voltaje adecuado y con la capacidad requerida para este tipo
de instalación.
• Las resistencias eléctricas deben ser correctamente distribuidas para que se logre un valor de temperatura estable
dentro del horno en un tiempo establecido de acuerdo con los requerimientos del proceso.
• Conexión y desconexión de la energía en un rango de temperatura establecido.
• Protección de los elementos que se introducen en el horno para el caso de incremento de la temperatura por
encima de los niveles adecuados.
• Protección eléctrica de la instalación ante la existencia de fallos en los circuitos.
• Correcta elección de los elementos de acuerdo con los requerimientos técnicos de la lógica del circuito.
• Accesibilidad, seguridad y estética general de la instalación (Quiroga, 2002).
Las técnicas de control de estos hornos, por lo general se realizan mediante un control on/off, que consiste en la
alternancia de dos estados: encendido y apagado. También existen hornos que realizan control proporcional
mediante modulaciones como por ejemplo PWM o modulación de ancho de pulso (Li Chang, 2015).
El presente proyecto de investigación fue solicitado por una compañía dedicada al mantenimiento de
transformadores de alta tensión, que cuenta con un horno secador para transformadores al cual no le funciona el
1
Ibarra Camargo Arnulfo MC es Profesor del Departamento de Metal Mecánica en el Instituto Tecnológico de Huatabampo,
Huatabampo, Sonora. arnulfoibarra@hotmail.com( autor corresponsal)
2
El Ing. Jesús Alan Rosas Arana es alumno Residente de Ingeniería Mecatrónica en el Instituto Tecnológico de Huatabampo,
Huatabampo, Sonora , México. j_alan05@hotmail.com
sistema de control de temperatura y es operado de manera manual, lo que ocasionaba fallas por exceso o falta de
temperatura y por tanto pérdida de dinero para la empresa.
Como requisitos de la empresa, el sistema debería ser económico y rápidamente aplicable, la pregunta de
investigación se determino que fuera ¿de qué manera se puede desarrollar un sistema de control de temperatura para
un horno secador de transformadores de alta tensión, que sea económico y rápidamente aplicable? (Rápidamente
considerando que el residente cuenta con seis meses para diseñar el sistema e instalarlo).
De la pregunta de investigación anterior emanan los siguientes objetivos:
Objetivo general. Diseñar un sistema de control de temperatura para un horno secador de transformadores de alta
tensión.
Objetivo específico 1. Analizar el horno secador e identificar cuales dispositivos pueden ser reutilizados.
Objetivo específico 2. Investigar las tecnologías utilizadas para la construcción de un sistema de control de
temperatura para un horno secador de transformadores.
Objetivo específico 3. Seleccionar la tecnología que más se adapte a las necesidades del cliente.
Objetivo específico 4. Construir e instalar el sistema de control de temperatura en horno secador y verificar su
funcionamiento.
Como producto se aclara que se construyó un prototipo del sistema de control que cumple con los
requerimientos del cliente y se verificó su funcionamiento, quedando los trabajos de mantenimiento y actualización
fuera del alcance de este proyecto.
El proyecto fue asignado a un residente de la carrera de Ingeniería Mecatrónica siendo su asesor el autor del
presente trabajo.
El desarrollo de este proyecto es para tener un control de temperatura confiable en el horno de secado y un
apagado automático del mismo evitando así daños a los equipos por sobrecalentamiento, ahorrando energía y
permitiendo a los operadores realizar otras actividades y dejar operando el horno sin preocuparse por ir a apagarlo,
esto se logra con un sensor y un controlador de temperatura automático que mantiene la temperatura y apaga el horno
a la temperatura y tiempo programado por el usuario; beneficiando así a los trabajadores y a la empresa evitando
dañar componentes y dando oportunidad a los trabajadores de dejar funcionando el horno durante la noche sin
sobrepasar el tiempo de operación del horno.
Un paso determinante para la confiabilidad del transformador es el secado del conjunto núcleo-bobina, ya que,
cualquier indicio de contenido de humedad en los aislamientos es posible riesgo de falla del transformador.
El secado consiste en someter al conjunto o conjuntos núcleo-bobina a un proceso de horneado a la temperatura
de 105°C, durante un lapso de tiempo que puede ir de 8 a 14 horas, dependiendo del tamaño de la bobina o capacidad
del transformador, inmediatamente después del horneado, se procede a ensamblar el conjunto núcleo-bobina al
tanque.
El horno de secado de transformadores no contaba con ningún sistema de control por lo que se realizó un análisis
para satisfacer todas las necesidades de automatización y economía requeridas por la compañía.
Después de hacer un análisis de las tecnologías existentes y los requerimientos de la compañía se determinó que
el sistema de control tendría un arranque y paro, el cual energizará el control de temperatura y un temporizador en
el cual se introducirán los parámetros de operación mediante teclado, el control de temperatura se encargara de
mantener la temperatura entre el límite máximo y mínimo previamente establecidos, apagando el motor de la turbina
y el banco de resistencias al censar el límite máximo y volviéndolos a encender al llegar al límite mínimo. El
temporizador se encargará de desenergizar el equipo al terminar el tiempo de operación programado, el proceso se
muestra en figura 1.
Como primer componente está la estación de arranque y paro, ésta energiza el sistema y está formado por botón
de arranque (verde) y paro (rojo), el relevador principal y el sistema de protección contra sobre corriente. Enseguida
se encuentra el temporizador, este se implementó por medio de una tarjeta electrónica arduino, un teclado matricial,
una pantalla de cristal liquido y un relevador que activa al control de temperatura.
Para la tarjeta arduino se diseñó un programa de tal manera que se comporta como temporizador y muestra en
estado del proceso por medio de la pantalla de cristal liquido. En el teclado se puede ajustar el tiempo que deberá
estar encendido el sistema según las necesidades del material a secar, cuando el sistema está encendido y el
temporizador está activado éste enciende el control de temperatura TC4S-14R, que es la siguiente etapa, el
temporizador y el control de temperatura se aprecia en la figura 2.
Las etapas de contactores y sistema de calefacción son los elementos con los que ya cuenta la empresa y se
reutilizaron, estos se muestran en la figura 4 y 5.
Una vez ensamblado el prototipo se arrancó y se le asignaron los siguientes parámetros de operación al
controlador de temperatura:
El tipo de sensor: este parámetro es obligatorio seleccionarlo ya que el controlador trabaja con cinco tipos
de sensores termocuplas tipo L,J y K Y RTD DPt100Ω y CU50Ω.
el tipo de salida ya que este controlador cuenta con salida a SSR y a RELE.
La histéresis: este parámetro es importante establecerlo para evitar el desgaste del contactor encendiendo el
horno grados abajo del set point en este caso de estableció de cuatro grados.
En la figura 6 se muestra el prototipo terminado
El prototipo se instalo en la empresa y se verifico su funcionamiento durante 3 días, se envió a la empresa lista
de material y reporte de investigación. Como se observa la solución del problema fue relativamente fácil, no se
utilizó dispositivos complejos de tecnología, pero se resolvió el problema que existía en la empresa, comprobando
así una de las labores más importantes de los ingenieros, resolver problemas.
Referencias bibliográficas.
Ballen, J. C., & Nomesqui Garcia, H. D. (2009). Implementación de un prototipo para control de temperatura Pid para secado de
baquelas.
Chancusig Pila, A. H. (2015). Diseño e implementación del control de temperatura para el horno del proceso de secado de motores
eléctricos de 1500 y 3000 hp con sistema" HVAC", en la Compañía Repsol Ecuador SA bloque 16 (Doctoral dissertation, Universidad
de las Fuerzas Armadas ESPE Extensión Latacunga. Carrera de Ingeniería en Electrónica e Instrumentación.).
Guato, C., & Tarquino, J. (2015). Diseño y construcción de un control de temperatura mediante un controlador lógico programable,
visualización en un panel táctil para un horno secador, en el comercial Zhiong Xing Cia. Ltda. Planta de producción de Puzolana
Pujilí (Doctoral dissertation, Universidad de las Fuerzas Armadas ESPE Extensión Latacunga. Carrera de Ingeniería en Electrónica e
Instrumentación.).
Palacio, O. L. L., Granados, L. F. M., & Villafáñez, L. C. C. GUÍA PARA CONSTRUIR ESTADOS DEL ARTE.
Chang, L., & Javier, J. (2015). Diseño e implementación de un sistema de control de temperatura y monitoreo de humedad para un
horno de secado de transformadores.
Vladimir, Q. F. (2002). Circuito de control para hornos de secado de transformadores. Ingeniería Energética, 23(1), 47-a.
Resumen— La presente investigación, surge del interés de contribuir a mejorar los procesos de enseñanza-
aprendizaje de las matemáticas. Esta se enmarca en aquellos proyectos que tienen como línea de estudio el
concepto de función constante y lineal. Este objeto matemático es en parte, base del entendimiento del resto
de las funciones que se exponen posteriormente en un curso de Cálculo Diferencial. La investigación
considera tres componentes didácticos: propuesta didáctica para el entendimiento de la función constante y
lineal, representaciones semióticas y la modelación en el contexto físico. El estudio se desarrolla con
estudiantes de diversas ingenierías ofrecidas en una Institución Educativa de Nivel Superior. Además de
analizar el proceso de entendimiento de las funciones, se investiga acerca de los niveles de aceptación de la
propuesta didáctica por parte de los estudiantes. Los resultados y conclusiones obtenidas del estudio plasman
las características propias del proceso didáctico de esta población estudiantil.
.
Palabras clave— función constante, lineal, representaciones semióticas, contexto físico.
Introducción
El problema del aprendizaje de las matemáticas es complejo. Durante las últimas décadas los investigadores en
matemática educativa se han interesado no solo en reflexionar, sino también en dar solución a la problemática que se
presenta en los procesos de enseñanza-aprendizaje de las matemáticas. Se desarrollan nuevos proyectos para
profundizar en diferentes temas específicos. Se comparan resultados obtenidos y se sugieren alternativas para
mejorar la enseñanza de las matemáticas. Este estudio tiene como línea de investigación el concepto de función
constante y lineal, tema fundamental en el curso de Cálculo Diferencial. Este proceso se enfoca en tres componentes
didácticos: 1) propuesta didáctica para el entendimiento de la función constante y lineal, 2) registros de
representación semiótica y 3) la modelación en el contexto físico. La investigación se desarrolla con estudiantes de
diversas ingenierías ofrecidas en el Instituto Tecnológico de Ciudad Juárez (ITCJ).
En la investigación cuantitativa, se hace referencia a las posibles diferencias que se presentan entre las
mediciones después de una intervención. En este caso, un examen de entrada y un examen de salida. Con respecto
a la investigación cualitativa, de acuerdo a Planchart (2002) este tipo de metodología se dirige a explorar lo que el
estudiante cree y responde ante un problema, incluyendo las conexiones e imágenes mentales que invoca el
estudiante. La metodología utilizada se basa en la implementación de una propuesta didáctica. También se sustenta
en situaciones de contexto real, desarrollada a través de una práctica de laboratorio. La actividad se administra a un
grupo llamado experimental, mientras otro grupo llamado de control se expone a una enseñanza de corte tradicional.
1
Esperanza Ibarra Estrada es Profesor del Instituto Tecnológico de Ciudad Juárez, Juárez, México. eibarra@itcj.edu.mx
2
El Dr. Sergio Flores es Profesor de la Universidad Autónoma de Ciudad Juárez. Juárez México.
3
El Mc René Saucedo es Profesor Instituto Tecnológico de Ciudad Juárez, Juárez, México.
4
La Dra. Dolores González Quezada es Profesor Instituto Tecnológico de Ciudad Juárez, Juárez, México.
A. Diseñar e implementar una propuesta didáctica para promover la comprensión de la función constante y
lineal a través de una contextualización física.
B. Analizar y evaluar procesos cognitivos que se generan en el estudiante al promover el uso de diversos
registros de representaciones semióticas, en el proceso de entendimiento de las mencionadas funciones. Utilizando
una propuesta didáctica en contexto físico.
C. Calcular y comparar el índice de ganancia de entendimiento por medio de los exámenes de entrada y salida
en los grupos experimental y control.
D. Calcular y comparar el nivel de confianza en las respuestas de los estudiantes.
E. Analizar la evolución del discurso cognitivo.
F. Indagar el nivel de aceptación de la propuesta didáctica por parte de los estudiantes integrantes del grupo
experimental.
Para el logro de los objetivos anteriores y la prueba de la hipótesis correspondiente a esta investigación, se
sugiere el siguiente problema de investigación: ¿Qué efectos cognitivos relacionados con la ganancia de
entendimiento, el nivel de confianza y el discurso cognitivo se desarrollan en el estudiante, durante el entendimiento
de algunos de los elementos que caracterizan a la función constante y lineal? La exposición didáctica se fundamenta
en la versatilidad de conversión entre distintos registros de representación semiótica en el contexto físico del
movimiento.
Varios investigadores han puesto en relieve la importancia de las representaciones para el entendimiento de los
conceptos matemáticos (Janvier, 1987; Aspinwall, Shaw, & Presmeg, 1997; Duval, 1998; Hitt, 1998). El enfoque
teórico que enmarca la investigación se apoya en la teoría de registros de representación semiótica, propuesta por
Raymond Duval5, sus transformaciones y conversiones. Los objetos matemáticos no son directamente accesibles a
la percepción, como lo son otros denominados reales o físicos, por lo que se hace necesario tener representaciones.
Los objetos matemáticos nunca se deben confundir con su representación, esta distinción es importante para la
comprensión de las matemáticas. Esto sugiere que para manipular los objetos matemáticos, se requiere de una
complementación entre los registros que los representan.
Las representaciones poseen un papel fundamental en la actividad matemática. Duval (1998) indica que:
“….la paradoja cognitiva del pensamiento matemático: por un lado, la aprehensión de los
objetos matemáticos no puede ser otra cosa que una aprehensión conceptual y, por otro lado,
solamente por medio de las representaciones semióticas es posible una actividad sobre los
objetos matemáticos”
La investigación se desarrolla en el ITCJ ubicado en ciudad Juárez, México, con la participación de estudiantes
de nivel profesional que cursan la materia de Cálculo Diferencial. En el estudio se asignan estudiantes de un grupo
experimental, y estudiantes de un grupo de control. Las edades de los estudiantes de ambos grupos oscilan en su
mayoría entre los 17 y 22 años de edad. La asignatura de cálculo diferencial se imparte en el primer semestre de las
carreras de ingeniería. El objetivo general del curso de cálculo diferencial, de acuerdo al Plan y programa de estudio
de la asignatura de Cálculo Diferencial de 2009-2010, el cual se aplica en el ITCJ, es “Plantear y resolver problemas
que requieren del concepto de función de una variable para modelar y de la derivada para resolver”. La competencia
específica de la unidad o elemento de competencia II de funciones, que es donde se presenta el tema de función
constante y lineal es: “comprender el concepto de función real e identificar tipos de funciones, así como aplicar sus
propiedades y operaciones”.
En este estudio se usa una metodología basada en la experimentación, con el fin de promover el entendimiento
de la función constante y lineal, se diseña una propuesta didáctica enfocándose en el uso de varios registros de
representación, en contexto físico. Con el fin de valorar la mencionada propuesta, se diseña un examen de entrada.
Este examen está conformado por reactivos con sustento en la Teoría de Representación Semiótica. “El recurso a
5
Raymond Duval profesor de la Universidad del Litoral y director de estudios de la Academia de Lila, Francia,
quien consolidó su trayectoria investigativa en Educación Matemática en Estrasburgo, a través tanto de amplias
observaciones de las actividades de los profesores y estudiantes en las clases de matemáticas , así como, del diseño
de clases experimentales. En su libro Semiosis y pensamiento humano sistematiza su trabajo y sus consideraciones
en torno a las investigaciones realizadas en psicología cognitiva y en inteligencia artificial .
varios registros es una condición necesaria para que no se confunda a los objetos matemáticos con sus
representaciones y para que se les pueda reconocer en cada uno de ellos. La coordinación de varios registros de
representación semiótica es fundamental para una aprehensión conceptual de los objetos matemáticos” (Duval
1998). Este examen se aplica antes de abordar el tema de funciones constantes y lineales tanto al grupo
experimental, como al grupo de control. También se aplica un examen de salida para señalar las diferencias que se
presentaron entre las mediciones después de la intervención didáctica.
Los registros de representación empleados en los problemas del examen de entrada a través de un contexto físico
son: el registro verbal, pictórico, gráfico y algebraico. Los reactivos son de tipo conceptual. De acuerdo González,
Flores, & Gutiérrez (2011) la comprensión de los conceptos básicos implícitos en el desarrollo de las actividades
juega un papel muy importante. En todos los problemas, se pide que se justifique la respuesta con el propósito de
explorar lo que piensa, cree y la redacción del discurso de los estudiantes. También, al final de cada problema, se
les solicita que señalen cual fue el nivel de confianza en su respuesta. La puntuación va de 1 (no muy confiado-
adivinando en su respuesta) hasta 5 (esta muy confiado en su respuesta).
Propuesta didáctica
Al inicio de la práctica, se imparte un entrenamiento para el uso del marcador de tiempo, ticker timer en
ingles (Figura 2). Este es un dispositivo para analizar el movimiento de los objetos en los laboratorios de física, se
utiliza para medir intervalos de tiempo cortos. El extremo de la cinta de papel es adherido en el extremo del carrito
antes de iniciar el movimiento por el riel. Conforme el carrito se mueve, el aparato hace marcas sobre la cinta a
intervalos iguales de tiempos, cada 0.020seg.
Una vez que se proporciona el entrenamiento del uso del marcador de tiempo, se procede a formar equipos
de cuatro integrantes. Se reparte la práctica escrita a cada estudiante. La práctica está conformada por problemas, en
la cual se trabaja la función constante y=a y de la función lineal de la forma y = a x+b, con a≠ 0.Se diseño para
explorar la inclinación (pendiente) de la recta.
Se diseña y administra una encuesta de aceptación de la propuesta didáctica, a los estudiantes del grupo
experimental. La finalidad de esta encuesta, es de conocer el nivel de aceptación de forma cuantitativa y cualitativa.
Esta encuesta es específica para esta investigación. Las preguntas exploraban el gusto e interés de los estudiantes
hacia la propuesta didáctica que desarrollaran en el laboratorio de física con una escala tipo Likert.
Resultados y conclusiones
Se pretende obtener resultados en cuanto a la diferencia entre las calificaciones de los grupos experimental y
control. Esto después de que el grupo experimental este expuesto al desarrollo de una intervención didáctica, y el
de control a una instrucción de corte tradicional. De acuerdo a los exámenes de entrada y salida de ambos grupos, se
analizará la diferencia del índice de ganancia de entendimiento conceptual Hake: ganancia baja (g < 0.3),
ganancia media (0.3 ≤ g < 0.7),o bien, ganancia alta (g>0.7). Y con esto poder concluir si con la propuesta
didáctica, basada en la conversión de registros de representación semiótica, favorece el entendimiento del concepto
de función constante y lineal. También, poder concluir si la intervención didáctica en contexto físico, favorece o no
al estudiante para entender los objetos matemáticos más funcionalmente que en el propio contexto de las
matemáticas.
Referencias
Amaya, R. (2007). La investigación en la práctica educativa: Guía metodológica de investigación para el diagnóstico y evaluación en los
centros docentes. Madrid: Centro de Investigación y Documentación Educativa (CIDE). SECRETARIA GENERAL TÉCNICA.
Aspinwall, L., Shaw, K., & Presmeg, N. (1997). Uncontrollable Mental Imagery: Graphical Connections Between a Function and its Derivative.
Educational Studies in Mathematics (33), 301–317.
Duval, R. (1998). Registros de representación semiótica y funcionamiento cognitivo del pensamiento. (F. Hitt, Ed.) Investigaciones en
Matemática Educativa II. Departamento de Matemática Educativa, Cinvestav , 173-201.
González, Flores & Gutiérrez, R. (2011). Integral de línea en el entendimiento de la teoría electromagnética: Integral de línea como una suma
de productos punto. Editorial Académica Española.
Hernández, R., Fernández, C., & Baptista, L. P. (2010). Metodología de la Investigación (Cuarta Edición. ed.). México: Editorial Mc Graw Hill.
Hitt, F. (1998). Difficulties in the Articulation of Different Representations Linked to the Concept of Function. Journal of Mathematical Behavior
, pp123-134.
Janvier, C. (1987). Ploblems of Representation in the Teaching and Learning of Mathematics. Hillsdale, New Jersey: Lawrence Erlbaum
Associates.
Planchart, O. (2002). La visualización y modelación en la adquisición del concepto de función. Tesis doctoral, Universidad Autónoma del Estado
de Morelos, Instituto de Ciencias de la Educación., México.
Apéndice
Problema 1
La figura de la derecha muestra un carrito que se suelta moviéndose hacia la derecha por el
riel. Dibuja un bosquejo de la gráfica correspondiente a la posición(s)-tiempo (t) del carro
durante su movimiento. Justifica tu respuesta.
Justificación de la
respuesta
Introducción
Aplicar la estrategia de motivación de logro para detonar en los estudiantes la generación de ideas innovadoras
y con ello realicen una investigación pertinente, ya que al iniciar las asignaturas de Investigación existe un bajo
nivel de interés y aun más para realizar el proceso de la misma. Con la aplicación de esta estrategia se pretende
motivar a los estudiantes para que logren seleccionar, desarrollar y aplicar un tema innovador y creativo.
Por esto la “motivación de logro”, es un punto importante para fomentar y desarrollar la Investigación en los
Tecnológicos guiando al estudiante en los cuatro momentos que se presentan durante la trayectoria educativa en
cada uno de los Semestres, como son pertinentes para la preparación de una Investigación fundamentada en una
área del conocimiento científico y tecnológico, que sirva como herramienta fundamental en la integración de
elementos para la formulación de la tesis profesional.
Estos cuatro momentos se ven en las materias de: Fundamentos de Investigación, Taller de Investigación 1,
Taller de investigación II y Formulación de proyectos, de esta manera la actividad académica e investigativa forma
parte, como sistema de las asignaturas que integran, la formación delegresado para desarrollar el conocimiento y
las habilidades necesarias para el ámbito profesional, enlazando la teoría con las actividades laborales y las
científico- investigativas.
Este trabajo pretende obtener procesos y resultados de las experiencias vividas en el aula, de la materia de
Taller de Investigación I con los alumnos que la cursan en la carrera de Ingeniería en Mecatrónica del Instituto
Tecnológico de Cd. Jiménez.
McClelland (1988) creyó firmemente que la gente logro-motivada es generalmente las que hacen que suceden
las cosas y conseguir resultados, y que esto extiende a conseguir resulta con la organización de la gente y de
recursos, aunque según lo indicado anterior, exigen a menudo a demasiado de su personal porque ella da la
prioridad a alcanzar la meta sobre los muchos intereses y necesidades variados de su gente.
McClellan y Atkinson (1958, citado en Thornberry, 2003; De María, 2006; De la fuente, 2002 & Gonzales, 2003),
definen la necesidad de logro como el éxito en una competición con un criterio de excelencia, y se menciona que la
motivación de logro académico parte de esta necesidad en la cual el sujeto mantiene constante el actuar para
conseguir el éxito. Pero los criterios de excelencia no son los mismos para todas las personas, mientras para unos
puede ser realizar una tarea con éxito y bien, para otro podría ser rendir mejor de lo que nunca se ha rendido o tal
1
Cecilia Ibarra Reyes es Profesora de Industrial en el Instituto Tecnológico de Cd. Jiménez ceibrey@yahoo.com.mx
2
Teresa Adriana Valdez Burciaga Profesora del Ciencias Económico-Administrativas en el Instituto Tecnológico de Cd. Jiménez
teresa_adrianavaldezb@hotmail.com
3
Luis Alberto Luján Tiscareño es Profesor de Ciencias Económico-Administrativas en el Instituto Tecnológico de Cd. Jiménez
tecnoesparta62@hotmail.com
vez rendir mejor que los demás o rendir lo suficiente para deshacerse de una tarea sea cual sea si existe esta
motivación de logro académico la persona puede sentir orgullo si logra el éxito o vergüenza si obtiene el fracaso,
estas diferencias en cuanto al logro hacen de la dinámica de grupo un reto para tratar de equilibrar las distancias
entre los que solo pueden cumplir con lo mínimo y los que sobrepasan lo mínimo para alcanzar metas más altas.
McClelland afirma que la activación de un motivo de logro prepara a la persona para que realice ciertas conductas:
realice tareas moderadamente desafiantes; persista en estas tareas; persiga el éxito laboral y una actividad
innovadora e independiente, guiado hacia una autonomía en su logropersonal. Las investigaciones realizadas
permiten ver lo siguiente:
Rendimiento óptimo en tareas moderadamente desafiantes; las personas con alta motivación de logro rinden mejor
que las personas con baja motivación de logro en tareas que se les comunica que son de dificultad intermedia, pero
no rinden mejor que las personas con baja motivación de logro en tareas descritas como fáciles o difíciles. Estas
personas con alta motivación de logro buscan las situaciones moderadamente desafiantes porque son las que mejor
ponen a prueba sus capacidades y habilidades. El éxito conseguido gracias a las capacidades propias, les confiere a
estas personas la sensación de un trabajo bien hecho, lo que para este tipo de personas tiene especial significado.
También se llegó a la conclusión de que las personas con alta motivación de logro rinden mejor cuando la tarea tiene
algún tipo de significado personal (o incentivo).
Esa es una definición en función de la necesidad de logro y al definir la motivación de logro Mc Clelland (1953,
citado en Thornberry, 2003, p. 198) a partir de sus estudios la definió a tratar de buscar el éxito en comparación con
unos entandares de excelencia. Estos estándares de excelencia podrían ser tener una buena nota o solo el hecho de
aprobar. Entonces la motivación de logro es aquella que empuja y dirige la consecución exitosa, de forma
competitiva, de una meta u objetivo reconocido socialmente, llevando a los estudiantes a formarse en la cultura del
esfuerzo continuo y permanente.
La motivación de logro académico se encuentra ligada a la meta de logro de tal manera que la meta puede orientar la
motivación de logro académico y hasta se menciona en varias investigaciones diferentes que los dos diferentes tipos
de metas pueden complementarse para lograr en el alumno una motivación más fuerte a cumplir su objetivo
propuesto (Rodríguez, Cabanach, Piñeiro y Valle, 2001)
Por otra parte La motivación de logro académico puede estar influenciada por un impacto social. Según Escartí
(1994, citado en Salinero, 2006) se denomina clima motivacional y puede estar formado por los padres, profesores y
compañeros que de manera externa influyen. Los jóvenes se orientan a las metas que más predominan en el
ambiente y es en la adolescencia donde influye este ambiente con más fuerza ya que se desea evitar la vergüenza o
el fracaso.
Como se pronuncia en un artículo La Práctica del Orientador Educativo y la Motivación de Logro en los
Alumnos se aborda la práctica del docente y la motivación de logro como uno de los factores que más influyen en el
aprendizaje de los estudiantes y en la labor del docente, en un bachillerato propedéutico estatal se plantean diversas
formas para que el docente analice y modifique su práctica como es la formación e investigación en el área.(Paz,
2005).
En este sentido, la mayoría de instituciones de educación superior han orientado sus metas hacia la ejecución de
competencias en sus estudiantes, lo que implica necesariamente una mayor valoración de la mejora personal lograda
durante la puesta en práctica de las actividades académicas, frente a la evaluación de resultados por criterios
externos. De esta manera, la preocupación por promover la motivación intrínseca de los alumnos cobra mayor
importancia y se ve facilitada en contextos en donde se presentan relaciones interpersonales seguras y positivas. El
reflejo de estas intenciones en el trabajo de aula pone de manifiesto la relación estrecha entre la calidad del proceso
educativo con la motivación de logro, la cual puede tener implicancias importantes en el rendimiento de los
estudiantes (Lucas, 2007).
Es fundamental promover desde la Institución a través de los docentes el manejo por parte de los estudiantes de
estrategias que fomenten el desarrollo de la motivación caracterizada por un alto interés intrínseco en la tarea,
centrándose en el esfuerzo, utilizando estrategias eficaces que los comprometen e implican activamente en el
aprendizaje. Cid (2008).
En 1983 Nichols definió la innovación como aquella “idea, objeto o práctica percibida como nueva por un individuo
o individuos, que intenta introducir mejoras en relación a los objetivos deseados, que por naturales tiene una
fundamentación, y que se planifica y delibera” (Nichols, 1983, p. 4). Aunque han pasado 20 años, esta definición
sigue vigente. Innovación es el esfuerzo de un agente en tratar principalmente de obtener una mejora fundamentada
en el ámbito de conocimiento donde se pretende desarrollar. Parafraseando a De la Torre (1994), un proyecto de
innovación es una propuesta de plan y su desarrollo, con el fin de cambiar y mejorar algún aspecto concreto
educativo (currículo, gestión de las relaciones interpersonales o de formación, etc.). Se trata, por tanto, de una acción
planificada que implica la existencia de un cambio no madurativo, evolutivo o casual, sino un cambio perseguido,
La relación entre la investigación y la innovación es tambiénsutil. Stokes (1997) considera que, en muchas
ocasiones, se dan deforma simultánea la motivación por contribuir al avance del conocimiento y el deseo por
conseguir algo que sea práctico, útil y aplicable. La motivación de los investigadores, según este autor, puede
analizarse utilizando el modelo clásico a partir de la división entre la investigación teórica y la investigación
aplicada.Al buscar evidencias en los procesos de cambio, Cuban (1999)considera que hay que tener presente dos
criterios: la penetración y laefectividad. En el primer caso, hay que evaluar si el cambio ha modificadorealmente las
formas de enseñanza-aprendizaje. La efectividad se refiereal impacto real en la mejora del aprendizaje. Obviamente,
este segundoaspecto es mucho más difícil de evaluar pero, como ya hemos señaladopreviamente, la innovación ha
de ser juzgada por el propio usuario. Losestudiantes son el elemento clave para el análisis de las mejoras en
lossistemas de análisis de la innovación.
Motivación de logro
Ideas innovadoras en la investigación
La variable que se controló fue la de motivación de logro. Y la variable que se midió y analizó son las ideas
innovadoras en los temas de investigación
Al inicio del semestre los estudiantes no se sentían capaces de proponer temas relevantes, así como de realizar una
investigación. Al aplicar la estrategia de motivación de logro, generaron ideas innovadoras y desarrollaron
investigaciones notables durante el periodo escolar, mismas que quedaron registradas en el Departamento de
Metalmecánica.
Dada la relevancia de los temas de investigación, la mayoría de los estudiantes continuó en la asignatura de Taller de
Investigación II con las mismas temáticas.
Implica que la mayoría de los estudiantes que ingresan a los Institutos Tecnológicos ven la investigación como algo
secundario, no relevante, formando esto una cultura de apatía hacia la investigación y sus temas.Además los
estudiantes consideran la investigación científica como algo que no está a su alcance realizarla, que pertenece a otro
nivel de conocimiento, más no en el que ellos se encuentran.
Proyectos de Investigación
7
6
5
4
3
2
1
0
Innovadores No innovadores
Proyectos de Investigación
16
14
12
10
8
6
4
2
0
Innovadores No innovadores
Comentarios Finales
Sería aquí el espacio para añadir los comentarios finales, que casi siempre incluyen un resumen de los resultados,
las conclusiones, y las recomendaciones que hacen los autores para seguir el trabajo.
Resumen de resultados
Al final del semestre Enero-Junio 2014 en donde no se aplicaron estrategias para incentivar la motivación de
logro y generar ideas innovadoras para la elaboración de los protocolos de investigación presentados por los diez
estudiantes de la carrera de Ingeniería Mecatrónica, tres de ellos presentaron ideas innovadoras y creativas
quedando registrados en el Departamento de Metal –mecánica para continuar trabajando el proyecto en la
asignatura de Taller de Investigación II.
Al inicio y durante el semestre Enero-Junio 2015 se aplicaron estrategias para propiciar la motivación de logroy
generar ideas innovadoras para la presentación los protocolos de investigación presentados por los veinte
estudiantes de la carrera de Ingeniería Mecatrónica, quince de ellos presentaron ideas innovadoras y creativas
quedando registrados en el Departamento de Metal –mecánica para continuar trabajando el proyecto en la
asignatura de Taller de Investigación II.
Conclusiones
Uno de los retos más grandes que enfrenta la Educación Superior Tecnológica es el carácter simplista por parte
de los estudiantes y en ocasiones de los docentes, en cuanto al tratamiento de las diferentes disciplinas, es decir, ver
una sola área de la ciencia como lo único e indispensable, sabiendo que la ciencia es multidisciplinaria y deberá
atender todas las áreas de la ciencias de manera interdisciplinaria, por otro lado la parte humana de los estudiantes
ha ido decreciendo, dejando de lado las competencias afectivas, emocionales, sociales y de relaciones
interpersonales, por lo que es importante crear un ambiente favorable que atienda las dimensiones humanas
mencionadas, lo que redundará en pasión, vocación, disciplina por lo que se hace y la motivación de logro es una
estrategia donde inciden los elementos antes mencionados.
Los resultados demuestran la importancia de la aplicación de estrategias para incentivar la motivación de logro,
lo que se ve reflejado en más y mejores proyectos de investigación con ideas innovadoras y creativas; y por otro
lado, dar paso para que los estudiantes continúen con su proyecto a lo largo de la carrera y al término de la misma
se puedan titular; lo anterior contribuirá a su formación integral para enfrentar los retos y desafíos en todos los
ámbitos de su vida.
Recomendaciones
Se recomienda implementar un programa institucional de actualización permanente que contemple la aplicación
de estrategias que eleven el nivel de motivación de logro para los estudiantes por medio de los docentes, no solo
que estén en las asignaturas de Investigación, si bien en todas las materias impartidas en el aula y en otras tareas
universitarias como el arte y el deporte, como una herramienta que impulsa a los estudiantes a su desarrollo integral
que puedan aplicar posteriormente en su vida profesional y como un beneficio no solo a la innovación y a las ideas
creativas sino también a un bien común a lo largo de su trayectoria profesional, personal y social .
Referencias
Atkinson, J. W. (Ed.). (1958). Motives in fantasy, action and society. Princeton, NJ: Van Nostrand.
Cid Cid Sofía (2008) Revista Electrónica Iberoamericana sobre Calidad, Eficacia y Cambio en Educación en su volumen 6, número 003. Red
Iberoamericana de Investigación sobre Cambio y Eficacia Escolar Madrid, España pp.100-120
Cuban, L. (1999): Change Without Reform in University Currículo, Teaching, andResearch. Nueva York: Teachers College Press.
De la Torre, S. (1992). c(1nnovaciones en Didáctica. Mirando al aiio 2000~. Innovación Educativa, núm. 1, p. 7-16. - (1993): Didáctica y
currículo. Madrid: Dikinson. Cap. (>, p. 183-239. - (1993b): Innovación curricular. Barcelona. Inédito. - (1994): c>. Innovación Educativa, núm.
3.
Escartí (1994, citado en Salinero, 2006 Motivación de Logro Académico y Rendimiento Académico en alumnos de secundaria de una
Institución Educativa del Callao
Fullan, M. G. (1996). Turning systemic thinking on its head. Phi Delta Kappan, 77 (6), 420-423.
Lucas, S. Desarrollo de las competencias “Preocupación por la calidad” y “Motivación de logro” desde la docencia universitaria. En: Red U.
Revista de Docencia Universitaria [en línea], Nº 2 (septiembre, 2007) [citado julio 17, 2009].
Manassero A. y Vázquez A. (1998). Validación de una escala de motivación de logro. Psicothema Vol. 10 nº2, 333-351
McClelland, D. C., Atkinson, J. W., Clark, R. A., & Lowell, E. L. (1953). The achievement motive. New York: Appleton-Century-Crofts.
McClelland, D. C., Baldwin, A. L., Bronfenbrenner, U., & Strodbeck, F. L. (1958). Talent and society. New perspectives in the identification
of talent. Princeton, NJ: Van Nostrand.
Paz, M. (2005). La Práctica del Orientador Educativo y la Motivación de logros en los alumnos. Revista Mexicana de Orientación Educativa, 6
Rodriguez, G. Cabanash, I. Piñeiro, I. y Valle, A. (2001). Metas de aproximación, metas de evitación y múltiples metas académicas ,
Universidad de Oviedo, España.
Stokes, D. (1997): Pasteur´s Quadrant: Basic Science and Technological Innovations. Washington, DC: Brookings Institution Press.
Weiner, B. (1972). Theories of motivation: from mechanism to cognition, EUA: Rand McNally College Publishing Company.
.
Notas Biográficas
La M.E. Cecilia Ibarra Reyeses profesora de Ciencias Basicas en el Instituto Tecnológico de cd. Jiménez. , Termino sus estudios de
postgrado en Educación en la Universidad de Cd. Juárez .Ha participado como asesora en Investigaciones, logrando un segundo lugar a nivel
Nacional en el Tercer Certamen Nacional “Universitarios por el Desarrollo Agrario 2012” y además ha participado en ponencias de CIPITECH,
actualmente es Jefa de la Oficina de Construcción y Equipamiento en el Departamento de Planeación Programación yPresupuestación del
ITCdJ. Participó en el Congreso Internacional de Investigación Academia Journals 2014
La M.E. Teresa Adriana Valdez Burciaga es profesora de Ciencias Económico Administrativas en el Instituto Tecnológico de Cd. Jiménez.
Terminó sus estudios de postgrado en Educación en la Universidad de Cd. Juárez .Ha participado como Jurado y asesora del concurso de
Ciencias Básicas, actualmente Jefa del Departamento de Desarrollo Académico. Participó en el Congreso Internacional de Investigación
Academia Journals 2014
El M.E. Luis Alberto Lujan Tiscareño profesor de Ciencias Económico Administrativas en el Instituto Tecnológico de Cd. Jiménez.
Terminó sus estudios de postgrado en Educación en la Universidad Autónoma de Cd. Juárez, es Asesor Técnico Pedagógico y Tallerista del
Centro de Maestros de Jiménez perteneciente a la Instancia Estatal de Formación Continua para Maestros en Servicio. Participó en el Congreso
Internacional de Investigación Academia Journals 2014
Resumen—Este artículo muestra la metodología sugerida para aplicación de modelos de pronósticos, para predecir la
demanda de pacientes de cada una de las especialidades médicas que se llevan a cabo en el área de Hospitalización, en un
Hospital Público de la Ciudad de Culiacán, Sinaloa. Los modelos a evaluar serán aplicados solamente para cuatro áreas:
Cirugía, Medicina Interna, Pediatría y Tocología. El presente trabajo proporciona un panorama teórico del seguimiento
de la metodología así como los aspectos técnicos de los principales modelos asociados al problema. Finalmente se propone
el conjunto de modelos que se ajustan a las necesidades de esas cuatro áreas y se establece además el criterio de elección del
mejor pronóstico.
Palabras clave— Pronósticos de la demanda, metodología de pronósticos, demanda de pacientes en hospitales, medición
del error en pronósticos.
Introducción
Los Hospitales representan un sistema complejo donde se deben manejar un gran número de materiales y
recursos humanos. Dichos materiales son administrados en función a la demanda de servicios médicos, debido a esto
se vuelve de vital importancia predecir los requerimientos futuros.
En este contexto se vuelve imperativo contar con un estimado adecuado de la demanda de los servicios médicos
existentes en el hospital de forma que sea posible planificar con antelación los requerimientos materiales, de estadía
y de personal para solventar dicha demanda.
Investigaciones Previas
El pronóstico de la demanda es parte fundamental para una adecuada planeación de requerimientos y materiales
para cualquier proceso. Mackay y Lee (2005) desarrollaron en su trabajo toda una metodología para el análisis y la
selección de un modelo de pronósticos que permita predecir el número de camas utilizadas en un hospital del sur de
Australia. Su metodología consiste en identificar los tipos de pronósticos que se van a utilizar (Promedios móviles,
series de tiempo, causales y promedio de tiempo de espera), posteriormente elegir el horizonte de planeación para
determinar el número de parámetros a incluir en el modelo de pronóstico. Los resultados obtenidos concluyeron en
que la complejidad del modelo incrementaba el error en el pronóstico por lo que se obtuvieron los mejores
resultados con los modelos de pronósticos poco complejos. Los mejores resultados mediante el uso del coeficiente
de correlación se obtuvieron al utilizar modelos por estaciones, considerando y no considerando los fines de semana
como parámetros distintos (Mackay & Lee, 2005).
Otras metodologías para la evaluación de modelos de pronósticos de carácter estacional, es la regresión
trigonométrica, la cual es utilizada en tipos de procesos cuya gráfica de histograma genera un polígono cíclico. En
2014 fue utilizado un modelo de regresión trigonométrico para evaluar la estacionalidad de un modelo de control de
enfermedades transmisibles (Rigdon et al. 2014).
Otros trabajos relacionados abordan el uso de pronósticos de la demanda de los distintos servicios médicos
(Rajakovich & Vladimirov, 2009), para evaluar la capacidad del área de emergencias (Stout. Jr. & Tawney, 2005),
uso de un modelo de pronóstico Bayesiano para determinar la demanda utilizando datos meteorológicos (Sahu et al.
2014) y la combinación de los modelos de pronósticos con algoritmos de inteligencia artificial (Hadavandi et al.
1
Ing. Jorge Iñiguez Montoya es alumno de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de Culiacán, Culiacán,
Sinaloa, México Jorge_iniguez@itculiacan.edu.mx
2
El Dr. José Fernando Hernández Silva es Profesor de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de
Culiacán, Sinaloa, México. fhernandez@itculiacan.edu.mx
3
LA Dra. Carmen Guadalupe López Varela es Profesor de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de
Culiacán, Sinaloa, México. Cglopez_it@yahoo.com.mx
4
El M.C. Lorenzo Pérez Vila es Profesor del Instituto Tecnológico de Culiacán, Sinaloa, México. Perez_vila@hotmail.com
2012).
Metodología
Para realizar un estudio de pronósticos se deben seguir 7 pasos, los cuales se describen a continuación:
1. Determinar el uso del pronóstico.
2. Seleccionar los aspectos que se deben pronosticar.
3. Determinar el horizonte de tiempo del pronóstico.
4. Seleccionar los modelos de pronóstico.
5. Recopilar los datos necesarios para elaborar el pronóstico.
6. Realizar el pronóstico.
7. Validar e implementar los resultados (Heizer & Render, 2009).
Determinar el uso del pronóstico
El pronóstico será utilizado para predecir la demanda futura de pacientes por distintos tipos de especialidad
médica.
Seleccionar los aspectos que se deben pronosticar
Como parte de la administración hospitalaria es necesario contar con el número adecuado de doctores,
enfermeras, especialistas, camas, medicamentos y materiales; para garantizar la correcta atención médica. Todos
estos elementos tienen como factor común el número de pacientes que demandan el servicio.
Horizonte de tiempo
Hace referencia al periodo de tiempo hasta el cual tendrá alcance el pronóstico. Se clasifica en tres tipos
diferentes:
1. Corto plazo: Periodos menores a tres meses
2. Mediano plazo: Periodos mayores a tres meses y hasta tres años.
3. Largo plazo: Periodos mayores a tres años (Heizer & Render, 2009).
Para este caso se planea que los pronósticos puedan predecir la demanda futura para un año a partir del presente
año (2016). Por lo tanto el horizonte de tiempo queda determinado como de mediano plazo.
Seleccionar los modelos de pronósticos
Según Hanke y Wichern (2010), la elección del modelo de pronóstico a evaluar depende de cinco factores
principales: Patrón de datos, horizonte de tiempo, tipo de modelo, estacionalidad y número de variables. El resumen
de la sugerencia del pronóstico con base a los factores antes descritos se muestra en la tabla 1.
Datos mínimos requeridos
Patrón de Horizonte Tipo del No
Método datos de tiempo modelo estacionales Estacionales
Simple ST,T,S S TS 1
Promedios Simple ST S TS 30
Promedios Móviles ST S TS 4-20
Suavizamiento Exponencial ST S TS 2
Suavizamiento Exponencial Lineal T S TS 3
Suavizamiento Exponencial Cuadrático T S TS 4
Suavizamiento Exponencial Estacional S S TS 2XS
Filtración Adaptativa S S TS
Regresión Simple T I C 10
Regresión Múltiple C,S I C 10 X V
Descomposición Clásica S S TS 5XS
Modelos de Tendencia Exponencial T I,L TS 10
Ajuste de la Curva S T I,L TS 10
Modelos de Gompertz T I,L TS 10
Curvas de Crecimiento T I,L TS 10
Census X-12 S S TS 6XS
Desviación Absoluta Media (DAM): Medida del error global de pronóstico para un modelo.
𝑛
1
𝐷𝐴𝑀 = ∑|𝐴𝑡 − 𝐹𝑡 |
𝑛
𝑡=1
𝐷𝑜𝑛𝑑𝑒:
𝐴𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑟𝑒𝑎𝑙
𝐹𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑝𝑟𝑜𝑛ó𝑠𝑡𝑖𝑐𝑎𝑑𝑜
Error Cuadrático Medio (ECM): Promedio de los sesgos cuadrados entre el pronóstico y los valores observados.
𝑛
1
𝐸𝐶𝑀 = ∑(𝐴𝑡 − 𝐹𝑡 )2
𝑛
𝑡=1
𝐷𝑜𝑛𝑑𝑒:
𝐴𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑟𝑒𝑎𝑙
𝐹𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑝𝑟𝑜𝑛ó𝑠𝑡𝑖𝑐𝑎𝑑𝑜
Error Porcentual Absoluto Medio (EPAM): Promedio de las diferencias absolutas encontradas entre los valores
reales y los pronosticados, expresado como un porcentaje respecto a los valores reales.
𝑛
1 𝐴𝑡 − 𝐹𝑡
𝐸𝑃𝐴𝑀 = ∑ | | × 100
𝑛 𝐴𝑡
𝑡=1
𝐷𝑜𝑛𝑑𝑒:
𝐴𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑟𝑒𝑎𝑙
𝐹𝑡 → 𝑉𝑎𝑙𝑜𝑟 𝑝𝑟𝑜𝑛ó𝑠𝑡𝑖𝑐𝑎𝑑𝑜
Finalmente el modelo de pronóstico elegido será aquel que presente el menor error, y se desarrollará para predecir la
demanda futura por cada especialidad. Cada especialidad contará con su propio modelo de pronóstico y será el que
mejor se ajuste, por lo que no se generalizará un modelo de pronóstico para todas las especialidades.
Conclusiones
Aplicar la metodología descrita por estos autores facilita bastante el trabajo de llevar a cabo los modelos de
pronósticos ya que van describiendo el proceso de una forma sencilla y clara, de forma que incluso una persona que
no esté especializada en el campo pueda realizar esta tarea. Además presenta información muy útil al momento de
evaluar los modelos que se ajustan a la naturaleza del pronóstico que se desea realizar ya que describe en forma
general cada tipo de modelo con sus respectivas características y sugiere solo modelos que se ajusten al
comportamiento de los datos históricos, reduciendo bastante el número total de modelos con los cuales
experimentar. Se recomienda a cualquier interesado en desarrollar modelos de pronósticos, revisar la metodología
descrita en este trabajo.
Referencias
Hadavandi, E., Shavandi, H., Ghanbari, A., & Abbasian-naghneh, S. (2012). Developing a hybrid artificial intelligence model for outpatient visits
forecasting in hospitals. Applied Soft Computing Journal, 12(2), 700–711. http://doi.org/10.1016/j.asoc.2011.09.018
Hanke, J. E., & Wichern, D. W. (2010). Pronósticos en los negocios (Novena ed.). México, D.F.: Pearson.
Heizer, J., & Render, B. (2009). Principios de Administración de Operaciones (Séptima ed.). México: Pearson.
Mackay, M., & Lee, M. (2005). Choice of Models for the Analysis and Forecasting of Hospital Beds. Health Care Management Science, 8, 221–
230.
Rajakovich, D., & Vladimirov, V. (2009). Prediction markets as a medical forecasting tool : demand for hospital services. The Journal of
Prediction Markets, 32, 78–106.
Rigdon, S. E., Turabelidze, G., & Jahanpour, E. (2014). Trigonometric regression for analysis of public health surveillance data. Journal of
Applied Mathematics, 2014. Retrieved from http://www.hindawi.com/journals/jam/2014/673293/abs/
Sahu, S. K., Baffour, B., Harper, P. R., Minty, J. H., & Sarran, C. (2014). A hierarchical Bayesian model for improving short-term forecasting of
hospital demand by including meteorological information. Journal of the Royal Statistical Society. Series A: Statistics in Society, 177(1), 39–61.
http://doi.org/10.1111/rssa.12008
Stout. Jr., W., & Tawney, B. (2005). An excel forecasting model to aid in decision making that affects hospital resource/bed utilization - hospital
capability to admit emergency room patients. Systems and Information Engineering Design Symposium.
Resumen—COVIDIEN es una empresa a nivel mundial, dedicada a la elaboración de productos médicos respiratorios,
Tubos Endotraqueales y Cánulas de Traqueotomía. El objetivo de este proyecto es mejorar el flujo en las líneas de
producción de traqueotomía, utilizando las herramientas de manufactura esbelta, además de mejorar los métricos de
eficiencia OPE, todo esto mediante un KAIZEN al área de producción. El evento KAIZEN fue un éxito ya que se
analizó correctamente y se utilizaron las herramientas de Manufactura Esbelta adecuadas, cumpliendo las metas
establecidas por la empresa, así como también el evento kaizen fue terminado en el tiempo programado.
Introducción
El área de producción de traqueotomía está dividida en 2 partes, la línea con globo y la línea sin globo. El área de
traqueotomía, es un área que se expandió rápidamente cada vez con más nuevos modelos que se agregaron con el
pasar de los años, por lo que se fueron adicionando estaciones de trabajo por toda el área. Al instalarse un nuevo
equipo, no se coloca en el lugar asignado para respetar el flujo, se instala generalmente fuera del área para que no
interfiera al proceso de producción durante su validación, una vez terminada su validación se re-instala ahora sí en su
lugar para respetar el flujo y se vuelve a validar nuevamente pero ahora con una validación más corta, esta segunda
re-instalación del equipo no se estuvo llevando y poco a poco con el pasar del tiempo el flujo se fue rompiendo, por
donde antes era el flujo principal ahora eran los modelos de bajo volumen, y los nuevos modelos de alto volumen que
correspondían a las nuevas estaciones se encontraban sin flujo por toda el área, esto generó mucho esfuerzo del
personal para mantener controlado el flujo de material y evitar mezcla de material.
Las distancias entre estaciones eran demasiado grandes y esto causó inventarios para poderlos manejar en carros o
charolas, un balance de línea era muy difícil ya que las operaciones no estaban interconectadas, además compartían
equipos los diferentes modelos y se corrían simultáneamente, por lo que las esperas producían inventarios.
La capacidad de la línea estaba establecida por capacidad demostrada, esto quiere decir capacidad que en promedio la
línea obtuvo por un tiempo y se estableció como meta, por lo que el supervisor debía obtener esa producción como
meta, nunca utilizaban la capacidad obtenida de un balance de línea ya que era muy complicado.
Para un supervisor o jefe de grupo era un gran reto mantener controlada el área, los problemas de calidad empezaron
a elevarse, la eficiencia a bajar y cada vez era más necesario más personal, esto incremento los costos comparado con
el estándar, por lo que era necesario intervenir y hacer los arreglos necesarios para evitar un problema grande.
A continuación, en la Figura 1 se muestra la distribución de la línea donde se aprecia el tamaño y su configuración,
algunas estaciones no aparecen en esta figura ya que se encuentran en otras áreas, las personas están sentadas, difícil
combinar operaciones.
1
La M.C Judith Jiménez Holguín es Jefe del Departamento de Desarrollo Académico y profesor del departamento de Ingeniería Industrial del
Instituto Tecnológico de Cd. Juárez, Chihuahua, México. jjimenezh@itcj.edu.mx (autor corresponsal)
2
El Ing. Oscar Gustavo Gutiérrez Caro es Coordinador Lean de la empresa TE Connectivity. osc_gtz@prodigy.net.mx
3
El Ing. José García Sánchez es profesor del área de Ciencias Básicas del Instituto Tecnológico de Cd. Juárez, Chihuahua, México.
jgarcia@itcj.edu.mx
4
La Ing. Gabriela del Carmen Madrid es Coordinadora de Tutorías y profesor del departamento de Ciencias Básicas del Instituto Tecnológico de
Cd. Juárez, Chihuahua, México gochoa@itcj.edu.mx
Objetivos Específicos
Utilizando las herramientas de manufactura esbelta ayudará a analizar el proceso de producción para detectar y reducir
los desperdicios. Los objetivos específicos son:
1. Reducir el inventario en proceso que se refleja cómo tiempo de entrega.
2. Incrementar la eficiencia de la línea (OPE), que viene de la fórmula.
OPE = %Rendimiento * % Calidad * % Disponibilidad.
3. Incrementar la capacidad de producción o capacidad de la línea.
4. Disminuir la distancia recorrida del producto por todo el proceso
5. Reducir el costo de la mano de obra (cantidad de gente necesaria).
A continuación, en la tabla 1 mostramos los métricos donde aparece el estado actual y la meta de cada uno de ellos.
Justificación
Es importante aplicar un Evento Kaizen a esta área, conforme pasa el tiempo la empresa está teniendo pérdidas
monetarias, ya que se está elaborando con gente de más y están fuera del costo estándar, esto quiere decir; que entre
más se produzca es más la pérdida, además los problemas de calidad se están incrementando conforme más variedad
de modelos se vayan agregando, cada vez se tiene más rechazos y sorteos dentro del área y urge establecer una meta
de producción real para poder medir correctamente el OPE, además es necesario optimizar la distribución de la línea
ya que se tiene un exceso de transportes que genera inventarios.
Supuesto
Con la implementación de un Evento Kaizen se puede minimizar todos los problemas principales que afectan a esta
línea. Es la manera más rápida y efectiva para resolver el problema. Este es un proyecto esperado por la gerencia que
se realice satisfactoriamente apoyando el evento 100%, este apoyo es muy importante ya que muchos departamentos
estarán involucrados, como mantenimiento, microbiología, sistemas, compras, planeación, ingeniería, calidad,
producción, EHS, validaciones y almacén, cada persona debe realizar su tarea a tiempo de acuerdo al plan de acción
establecido para cerrar el proyecto exitosamente. Manufactura Esbelta tiene las herramientas adecuadas para este tipo
de problemas de eficiencia, problemas de calidad y costos de Mano de Obra (M.O.).
Revisión De Literatura
Evento Kaizen
Un evento kaizen se describe como un esfuerzo de mejora que se desarrolla en un periodo corto, no más de 5 días. El
objetivo es realizar varios cambios que impacten los métricos que esperamos mejorar en forma inmediata, en estos 5
días se le otorga un especial soporte a los cambios por parte de los departamentos involucrados, es un evento que debe
estar bien organizado.
Los participantes comunes son operadores de línea, líder del proyecto, departamentos que afectaría el cambio o
necesite autorizaciones, típicamente hablando de una empresa de transformación son Ingeniería de procesos,
Mantenimiento, Calidad, Planeación, Materiales, Ing. Industrial y Producción, todos ellos manejados por un líder
debidamente entrenado en eventos kaizen y mantener siempre informado al gerente del área afectada, además debe
tener como apoyo un experto en manufactura esbelta,
Las fases de un evento kaizen pueden variar de compañía a compañía, ya que cada una maneja su propio sistema de
producción, en este caso se utilizó “DMAIC” una combinación de manufactura esbelta y 6 sigma, se puede encontrar
más información en el libro “Lean six sigma” de Michael George, la metodología de resolución de problemas en 6
sigma está dividida en 5 fases que son las siguientes:
D Definir el problema y alcance
M Medir el problema, condición actual
A Analizar, posibles causas
I (Improve) Hacer las mejoras
C Controlar o monitorear los resultados
Estas fases seguiremos para la realización del evento kaizen, las etapas D, M y A se realizan 3 o 4 semanas antes, y la
etapa I (Hacer las mejoras) no más de 5 días, ya que estos días la línea está detenida e inmediatamente después entra
la etapa C, monitorear los resultados.
Manufactura Esbelta
En el libro “lean Thinking” de James P. Womack menciona la manufactura esbelta tiene origen en los 5 principios de
pensamiento.
1. Define el valor desde el punto de vista del cliente.
2. Identifica tu corriente de valor.
3. Crea flujo.
4. Produzca el “jale’ del cliente.
5. Persiga la perfección.
Aunque no hay un plan de implementación de manufactura esbelta o una “receta” que funcione por igual para todas
las empresas, es posible establecer ciertas guías generales que nos dan la flexibilidad que se ocupa para tomar en
cuenta las situaciones particulares de cada empresa, esto es entender bien 5 principios antes mencionados y buscar los
7 desperdicios de la Manufactura Esbelta, para esto se pueden seguir los siguientes pasos.
1. Realizar un VSM (flujo de cadena de valor) para encontrar las oportunidades.
2. Presentar el GAP análisis (Resumen de los hallazgos en el VSM).
3. Tormenta de ideas para eliminar o minimizar cada hallazgo.
4. Realizar un plan de acción.
5. Priorizar acciones por impacto, costo y dificultad.
6. Ejecutar, etapa de hacer las mejoras.
En el libro “Observar para crear valor” por Mike Rother puede encontrar a detalle como observar y realizar mapeos
de la cadena de valor (VSM).
Los principales objetivos de la Manufactura Esbelta es implantar una filosofía de Mejora Continua que le permita a
las compañías reducir sus costos, mejorar los procesos y eliminar los desperdicios para aumentar la satisfacción de los
clientes y mantener el margen de utilidad. Los 7 desperdicios de la Manufactura Esbelta son:
1. Sobreproducción
2. Inventarios
3. Rechazos
4. Sobre-procesamiento
5. Esperas
6. Transporte
7. Movimientos
La Manufactura Esbelta proporciona a las compañías herramientas para sobrevivir en un mercado global que exige
calidad más alta, entrega más rápida a más bajo precio y en la cantidad requerida. Principales Herramientas de la
Manufactura Esbelta son:
1. VSM (Mapeo de la Cadena de Valor)
2. Las 5S (Orden y limpieza)
3. Just in time (Producción Justo a tiempo),
4. Sistema de Jalar
5. TPM (Mantenimiento Productivo Total)
6. SMED (Cambio rápido de modelo)
7. Kanban (Control de inventarios)
8. JIDOKA (Automatización con un toque humano)
VSM (Flujo de la cadena de valor) actual. El mapeo de flujo de valor inicial VSM se desarrolló para identificar las
áreas de oportunidad dentro del alcance del proyecto. La relación del Valor Agregado entre Lead Time (Tiempo de
entrega) es de 2.4% Las fábricas escondidas que se encontraron fueron exceso de material, ausencia de fábrica visual,
transporte innecesario de material y esperas. El tiempo de entrega o lead time es el tiempo que tarda una pieza desde
que llega al piso de producción hasta que sale del área de empaque como producto terminado, en la línea principal se
encontró con un tiempo de entrega ( lead time ) de 40.33 horas de las cuales 39.4 horas no agregan al valor al producto,
ósea 39.4 horas estuvo, esperando en racks, carros, charolas etc. y 0.95 horas estuvo el producto en transformación o
agregando valor, esto indica que solo el 2.4% del tiempo agrega valor al producto y el 97.6% es desperdicio.
Diagrama Espagueti (Distancia recorrida). se realizó un diagrama espagueti para representar los transportes que
realiza el operador para la elaboración de cada una de las familias de producto en el área. El producto principal viajó
por todas las estaciones un total de 525 ft. En la figura 2 se presenta el recorrido antes de la mejora.
OPE actual (Eficiencia total de la línea). El OPE actual de las últimas 12 semanas su promedio fue de 73% que se
tomará como número a mejorar, la intención de las mejoras en el área de Traqueotomía es incrementar el OPE a un
85% por lo menos. Capacidad Actual de la línea y mano de obra. La capacidad de la línea como se había
mencionado anteriormente, estaba dada por capacidad demostrada, esto quiere decir que la capacidad de la línea
establecida a producción era el promedio de la producción obtenida en los 12 últimos meses que corresponde a 174
piezas/hora, estos números fueron entregados por el departamento de Planeación de la Producción, que son quienes
programan y cargan los modelos a la línea. El área de traqueotomía consta de 38 personas directas asignadas al
proceso repartidas en dos turnos que corresponde a un monto de $287,500 dólares/ año de Mano de Obra.
ANALIZAR
Esta etapa corresponde a encontrar los problemas y su causa raíz que le están pegando a los métricos establecidos,
para esto se realizaron varios análisis que se muestran a continuación.
GAP Análisis. Se realizó un GAP Análisis, que es el resultado del VSM en forma de presentación, donde se le presenta
a todo el equipo kaizen los hallazgos u oportunidades de mejora encontrados estación por estación por todo el proceso
y por medio de tormenta de ideas se fueron resolviendo cada hallazgo asignando una persona responsable con su fecha
de promesa. Del GAP análisis se obtuvo un Plan de Acción con más de 70 actividades, de las cuales se les asigno
prioridad para bajar este número y solo seleccionar las cuales realmente le pegan a los métricos establecidos.
MEJORAR
Es llevar a cabo todas las ideas, son los días de implementación de las acciones, se detiene producción por 3 días para
hacer los cambios. A continuación, se muestran algunas ideas implementadas con éxito que ayudaron a alcanzar el
objetivo.
1. Los operadores recibieron entrenamiento en el balanceo de la nueva distribución de planta de la línea, la carga de
trabajo, nueva meta de producción y las piezas que se requieren por hora.
2.Se instaló el pizarrón de linealidad donde se monitorea la producción hora por hora y en cualquier momento y
cualquier persona interesada pueda ver claramente si van logrando la meta del día
3. Se balanceó la línea por celdas de manufactura con la cantidad correcta de operadores y su meta de producción real
calculada, incrementando su salida de 174 a 210 piezas / hora, sin modificar ningún equipo. En la figura 3 se observa
la distribución de planta propuesta
4. Se instalaron IPK’s (kanban) entre las estaciones, para controlar el flujo de material y así evitar exceso de material
entre estaciones, con esto, el tiempo de entrega (lead time) se redujo considerablemente.
5. Las 5S fueron respetadas y mejoradas, se aprovechó el evento kaizen para depurar, ordenar y limpiar el área.
6. TPM fue implementado en el área, debido a su éxito, rápidamente se extendió a las demás áreas, esto contribuyó
un incremento de disponibilidad en los equipos dentro del OPE.
CONTROLAR
Una vez que las mejoras han sido implementadas se le da seguimiento a los métricos importantes que fueron afectados
intencionalmente para mejorarlos. A continuación, se muestran los valores obtenidos de cada uno de los métricos
después del evento kaizen.
1. Producción alcanzo la meta.
2. OPE (Eficiencia total de la línea) el OPE, tuvo un incremento después del kaizen, esto debido principalmente al
darle seguimiento a la producción usando los pizarrones de linealidad, incrementar un poco la disponibilidad de los
equipos, un flujo más continuo sin esperas y estandarizar los criterios de aceptación
3. Trabajo Estándar Las líneas fueron balanceadas y se le entregó a Gerencia y a Producción una Hoja de Trabajo
Estándar de cómo acomodar la gente en los diferentes modelos en cada celda de manufactura. Se eliminaron de la
línea un total de 7 personas que representaban a la empresa una pérdida de $52,500 dólares anuales
4. Tiempo de Entrega (lead time) El tiempo de entrega (Lead Time) está dado por los inventarios dentro del área,
entre más distancia entre los procesos es más necesario utilizar carros y charolas para su transporte, al acortar las
distancias y establecer kanban entre estaciones, el tiempo de entrega se disminuye, entre menos inventario se tenga en
proceso el tiempo de entrega es más corto. El monitoreo se agregó a la hoja de auditorías de 5S para asegurarse que
los kanban se respetaran.
5. Las 5S Las auditorias 5S se siguieron llevando, antes del evento kaizen ya estaban establecidas, pero con el
evento kaizen se mejoró la calificación, ya que se tiene menos manejo de material y estaciones más ordenadas,
además se agregó el respeto de los kanban a las auditorias de 5S. En la figura 4 se muestra la hoja con los resultados
de la auditoria 5’s
RESULTADOS
El tiempo de entrega se redujo de 40.3 horas a 27 horas, una disminución de 33%, la meta era reducir un 30%, por lo
que este métrico se cumplió.
La eficiencia de la línea OPE se incrementó de 73% a 85% cumpliendo la meta establecida.
La capacidad de la línea se incrementó de 174 a 210 piezas por hora, que representa un incremento del 20%, superando
la meta del 10%.
La distancia recorrida del producto se redujo de 525 ft a 76 ft, que representa una disminución del 85%, superando la
meta de reducir un 50% la distancia recorrida del producto.
El costo de la mano de obra (MO) se estableció como meta reducir un 15% su costo, el resultado fue una disminución
del 18%, que representa un ahorro a la empresa de $52,500 dólares anuales.
En la tabla 3 de resultados, puede verse un resumen de las condiciones anteriores y su beneficio en cada uno de los
métricos.
Tabla 3. Resultados
METRICO ANTES META LOGRO
Tiempo de entrega (Lead time) 40.33 horas - 30% (28.3 hrs) 27 hrs
Eficiencia del área (OPE) 73% 85% 85%
Capacidad 174 piezas/hora + 10% 210 p/hr
(190 piezas/hr)
Distancia recorrida del producto 525 ft -50% (262 ft) 76 ft
Costo de Mano de Obra $287,500 -15% $235,000
dólares/año ($244,300 dls/año) dólares/año
Conclusiones
Los resultados del evento kaizen fueron satisfactorios, ya que se cumplieron todos los métricos en el tiempo
establecido, otros beneficios fue que el TPM se extendió a otras áreas ya que no existía en esta planta.
El evento kaizen es la manera más rápida de hacer mejoras a un proceso, aunque la planeación empieza 3 o 4 semanas
antes de la ejecución. La planeación es la etapa más importante de un evento kaizen para cumplir principalmente con
las fechas.
El equipo con las personas correctas nos da una solución exitosa a los problemas, y el apoyo de la Gerencia garantiza
que el personal este bien enfocado en las tareas del evento kaizen y mantener como primera prioridad sus tareas
asignadas mientras dura el evento kaizen.
Recomendaciones
Las herramientas de Manufactura Esbelta deben aplicarse de forma sencilla y el personal involucrado debe estar
informado que es Manufactura Esbelta y que cambios de mejora sufrirá el proceso para estar todos dispuestos al
cambio de mentalidad para hacer las cosas de forma diferente.
Una vez terminado el evento kaizen aparecerán otras mejoras que deben realizarse poco a poco, todo es parte del
mejoramiento continuo, los procesos cambian, entran nuevos modelos, las demandas cambian, nuevas ideas, por lo
que en un tiempo razonable será necesario llevar a cabo otro evento kaizen a la línea cuando las mejoras individuales
no tengan la fuerza suficiente para mejorar el proceso.
Hubo herramientas que no se utilizaron, que para este evento kaizen en particular no mejorarían significativamente
los métricos establecidos, pero en un futuro las condiciones pueden cambiar y se pueden utilizar nuevas herramientas
de Manufactura Esbelta o 6 sigma.
Referencias
1. Observar para crear valor, Mike Rother y John Shook, 1999. Lean Enterprise Institute, Inc.
2. Lean Thinking, James P. Womack, Daniel T. Jones, 2003, Ediciones Gestión 2000
3. Lean Six Sigma, Michael George, 2002, Mc Graw Hill Companies Inc.
Resumen— Actualmente se desconoce qué herramientas y técnicas de calidad, bajo el enfoque de la administración total
de la calidad, se implementan en el corredor industrial laja-bajío, debido a la falta de algún estudio exploratorio que
permita conocerlas y cuantificarlas. En la presente investigación se realizó un estudio sobre cuáles herramientas y
técnicas de calidad son implementadas y con qué frecuencia en empresas del sector industrial laja-bajío. El estudio
realizado muestra también las áreas de calidad donde las empresas ponen mayor esfuerzo. Los resultados son de interés
para encargados del área de calidad en las empresas y en el sector académico, ya que da a conocer la aplicación de las
técnicas y herramientas en la administración total de la calidad en industrias con certificación ISO.
Introducción
El concepto de Administración total de la calidad (TQM, por sus siglas en ingles) es un desarrollo lógico de
Control de Calidad Total (TQC), un concepto introducido por A.V. Feigenbaum en 1960. Según Chairini (2012) los
principios de TQC fueron fuertemente desarrollados en Japón después del fin de la 2da Guerra mundial. TQM es una
filosofía que a través del tiempo se ha vuelto popular en las empresas ya que se apoya en varías herramientas y
técnicas de calidad, así como de filosofías que han ayudado a las compañías a cumplir con sus objetivos. En la
estructura de la administración total de la calidad se identifican dos partes importantes: la filosófica y las
herramientas y técnicas; que se utilizan para dirigir y controlar la aplicación del sistema. El punto importante es que
en cada organización desde la más alta administración hasta los empleados puede usar algunas o todas estas técnicas
para mejorar su efectividad (Kanji y Asher, 1996).
Según Kanji y Asher, (1996) la definición de los métodos que se utilizarán en la implementación de TQM es uno
de los trabajos más importantes de la alta gerencia y el grado de éxito obtenido dependerá del conocimiento y
comprensión de estos métodos. Los métodos TQM tienen poca probabilidad de no ser útiles si no son usados
correctamente.
Cuando se ponen en práctica los métodos de calidad adecuados pueden dar lugar a la mejora de la calidad
rápidamente. Es por ello que la elección de los métodos adecuados para el desarrollo del proceso de TQM es una de
las funciones vitales de la gestión, y el grado de éxito obtenido dependerá de la habilidad gerencial. Sin embargo, el
proceso de administración de la calidad total es complejo y el uso de algunos de estos métodos requiere cuidadosas
consideración y un claro entendimiento (Kanji, 1996).
Lo que se logró en el presente estudio fue una evaluación que permitió determinar la aplicabilidad y frecuencia de
uso de las herramientas y técnicas de calidad así como su relación con la administración total de la calidad, logrando
con ello tener una medida cuantitativa que permita definir el grado de uso de las técnicas - herramienta de TQM.
También se obtuvo un valor para la relación de las áreas filosóficas de calidad con mayor esfuerzo por parte de las
industrias. En el presente artículo se presentan los resultados de la evaluación en el sector industrial Celaya-Santiago
de Querétaro (parte del área laja- bajío) en empresas que cuentan con certificación ISO.
La revisión de la literatura ha permitido detectar que existe una extensa clasificación de las técnicas y
herramientas de calidad. De la misma forma, ha dejado a la vista como la filosofía TQM está fuertemente
relacionada con los sistemas de aseguramiento de la calidad ISO 9000.
1
Ing. María Teresa Juárez Rodríguez es estudiante de Maestría en Ingeniería Industrial del Instituto Tecnológico de Celaya
juarezmaritere@gmail.com.mx
2
El M. C Moisés Tapia Esquivias es Profesor del departamento de Ingeniería Industrial del Instituto Tecnológico de Celaya
moises.tapia@itcelaya.edu.mx
3
La M.C Alicia Luna González es Profesora del departamento de Ingeniería Industrial del Instituto Tecnológico de Celaya
Alicia.luna@itcelaya.edu.mx
4
El M.C Manuel Darío Hernández Ripalda es Profesor del departamento de Ingeniería Industrial del Instituto Tecnológico de
Celaya dario.hernadez@itcelaya.edu.mx
Metodología de la Investigación
La población de estudio fue localizada en el registro del INEGI en la sección de Dirección Estadístico
Nacional de Unidades Económicas (INEGI, 2015). Encontrando un registro total de 87 empresas en el área
Celaya y Santiago de Querétaro, con más de 250 personas laborando en ellas (garantizando que es una empresa
solida) y con actividad económica manufacturera.
Una vez identificado el tamaño de la población, se procedió a definir el tamaño de muestra con base a los
fundamentos de muestreo estadístico, asegurando que la muestra sea representativa de la población.
Con un tamaño de población N=87 empresas y un intervalo de confianza 𝒛𝜶 de 95%, una proporción
esperada del 99%, y un error del 5%. La sustitución en la fórmula 1 se utilizó para calcular el tamaño de
muestra n para un tamaño de población finita:
2 ∗𝑝∗𝑞
𝑁∗𝑍𝛼
Formula 1 (Cervantes, 2013) 𝑛= 2 ∗𝑝∗𝑞
𝛿 2 (𝑁−1)+𝑍𝛼
Elaboración de cuestionario
La herramienta de recolección de datos que se utilizaron es un cuestionario, que dentro de las ventajas que tiene
es que constituye una forma concreta de la técnica de observación, logrando que el investigador fije su atención en
ciertos aspectos y se sujete a determinadas condiciones. (Tamayo, 2004).
Además, para obtener datos sobre la aplicación y frecuencia de las herramientas y técnicas se utilizaron escalas
del tipo Likert. Estas escalas son pruebas de actitud, que evalúan las opiniones de un individuo acerca de un objeto,
persona o suceso; se usan cuando lo que interesa es conocer qué se opina acerca de una cosa en particular (Salkin,
1999).
El cuestionario diseñado para conocer las herramientas y técnicas de calidad, y su relación con TQM tiene una
estructura que se puede ver en la tabla 1. Cada una de las cuatro secciones de la estructura del cuestionario tiene una
forma y propósito determinado que permitió obtener los datos deseados para el análisis.
Aplicar encuesta
Una encuesta recolecta información acerca de una población definida. Típicamente la información se recolecta
por la aplicación de cuestionarios a una muestra representativa de la población de interés. Para hacer esto de manera
consistente se usa un solo cuestionario (Bethlehem, 2009). El cuestionario se envío por el medio que la compañía
indicó (correo, fax, correo electrónico, visita), se pactó una fecha de entrega de la misma, con el fin de permitir que
el estudio sea finalizara en tiempo y forma.
En la tabla 2 se presenta la lista de empresas miembros de la muestra e información general de las mismas
recabada por la aplicación de la encuesta.
Validación de cuestionario
Una vez que se aplico la encuesta, la validación del cuestionario permitió asegurar su capacidad para recolectar
la información necesaria. Se realizó a través de una única aplicación de la encuesta, esto debido a lo complejo de que
las empresas otorguen en tiempo necesario para este tipo de estudios. Para definir la fiabilidad del cuestionario, con
los datos de la misma aplicación, se hizo una evaluación con el índice de Cronbach.
El método de consistencia interna basado en el alfa de Cronbach permite estimar la fiabilidad de un instrumento
de medida a través de un conjunto de ítems que se espera que midan la misma característica. La tabla 3 muestra los
valores de alfa y el número de ítems para cada enfoque.
Para casos de investigación básica un alfa de Cronbach entre 0.7 a 0.8 es apreciado como satisfactorio (Bland y
Altman, 1997).
Figura 1. Valores de los enfoque en el principio de gestión 9001:2005 y del enfoque filosófico de TQM
(elaboración propia).
Después de realizar un análisis de las gráficas de pastel sobre los resultados de las encuestas obtenidas se llego a
las siguientes conclusiones:
Solo un 23% de las compañías encuestadas conocen totalmente la filosofía TQM, el 38% de ellas la conoce
casi en su totalidad, el 31% la conoce medianamente, y solo el 8% desconoce la filosofía.
En el 85% de las empresas encuestadas implementan el sistema de Administración Total de la Calidad a
nivel organizacional y solo el 15% de las empresas no implementan el sistema.
De las 85% empresas que contestaron que si implementan el sistema de administración total de la calidad;
trabajan en su totalidad con TQM un 18%, un 55% casi lo trabaja en su totalidad, el 27% lo trabaja
medianamente.
Del 85 % de la empresas que contestaron que si implementaban la filosofía TQM el 38% de ellas tienen más
de 5 años implementándola, el 31% de 4 a 5 años, el 8% de 2 a 3 años y el 23% restante menos un año de
implementación.
Del 100% de las compañías entrevistadas el 7% asegura conocer en su totalidad los métodos y herramientas
de TQM, el 54% afirma conocer los métodos y herramientas casi en su totalidad, el 31% contesto que las
conoce medianamente y el 8% afirmo desconocer las herramientas.
En las gráficas de barras que describen los resultados de las herramientas que se utilizan en cada enfoque y su
frecuencia. De manera general se puede apreciar que las herramientas de mayor uso en el enfoque de TQM son:
análisis de capacidad de proceso, muestreo, análisis de la medición, graficas de control estadístico de proceso y
estadística descriptiva. Por su parte, las de menor uso son: análisis de la regresión, diseño de experimento, prueba de
hipótesis y análisis de series de tiempo en todos los enfoques. Cabe destacar que se habla de menor frecuencia de
uso, pero todas las herramientas son utilizadas.
En la parte de otras herramientas y técnicas de calidad en el enfoque de TQM (recordar que estas no tiene un uso
específico en la literatura analizada) se encontró, una vez que se procesó la información, que se usa con mayor
frecuencia: las gráficas, diagrama de Pareto, plan de control, análisis de modo y efecto de falla (AMEF), hoja de
revisión, diagrama de flujo, lluvia de ideas, poka yoke, costos de calidad, diagrama causa y efecto, histograma y
metodología de resolución de problemas. Por su parte las de menor frecuencia de uso son: análisis de campo de
fuerza, gráficas programada del proceso de decisión, diagrama de flechas, diagrama de afinidad, diagrama
sistemático, diagrama de relaciones, diagrama matricial, método de análisis de matriz de datos y análisis de propósito
departamental.
Comentarios Finales
Se pudo determinar que una alta cantidad de las empresas implementan la Administración Total de la Calidad y
que cada empresa aplica las herramientas con diferente frecuencia. Las herramientas básicas de calidad siguen siendo
de las más utilizadas y conocidas, por su parte las siete nuevas herramientas de calidad no tienen un alto uso en la
práctica actual. La información obtenida será una referencia útil para realizar planes de estudio y de trabajo en
instituciones de educación y en empresas que buscan una certificación ISO, respectivamente.
Referencias
Bethlehem, J., (2009). Applied Survey Methods: New Jersey, John Wiley y Sons.
Bland, J. M., and D. G. Altman, (1997) Statistics Notes: Cronbach´s Alpha: British Medical Journal, v. 314, p. 572.
Cervantes Trujillo, S. F., 2014, Diagnóstico de los sistemas de mejora continua implementados en empresas del sector automotriz en Celaya,
Guanajuato, Instituto Tecnológico de Celaya.
Chiarini, A., (2012). From Total Quality Control to Lean Six Sigma: Bologna, Italy, SpringerBrief in Business.
Instituto Nacional de Estadística y Geografía. (2015). Directorio Estadístico Nacional de Unidades Económicas. Recuperado en Junio de
2015, de Directorio Estadístico Nacional de Unidades Económicas: http://www3.inegi.org.mx/sistemas/mapa/denue/default.aspx
Kanji, G. K., (1996). Total Quality Management in Action: London, Chapman & Hall.
Kanji, G. K., and M. Asher (1996). Methods for Total Quality Management: London, Sage Publications.
Notas Biográficas
La Ing. María Teresa Juárez Rodríguez es Ingeniera Industrial egresada del Instituto Tecnológico de Querétaro. Actualmente es
estudiante de Maestría en Ingeniería Industrial del Instituto Tecnológico de Celaya. Su tesis y área de interés está enfocada a la estadística y
calidad aplicada en el sector industrial.
El M.C. Moisés Tapia Esquivias es profesor en el Departamento de Ingeniería Industrial en el Instituto Tecnológico de Celaya, su maestría
la realizo en Sistemas y Calidad en el ITESM, miembro del cuerpo académico “optimización de procesos de manufactura y servicios”, cuenta con
perfil deseable PROMEP, actualmente imparte la materia de “Tópicos selectos de Calidad” en la Maestría de Ingeniería Industrial en el Instituto
Tecnológico de Celaya.
La M.C. Alicia Luna González es profesora en el Departamento de Ingeniería Industrial en el Instituto Tecnológico de Celaya, su maestría la
realizo en Sistemas y Calidad en el ITESM, miembro del cuerpo académico “optimización de procesos de manufactura y servicios”, cuenta con
perfil deseable PROMEP, actualmente imparte la materia de “Ingeniería de Sistemas” en la Maestría de Ingeniería Industrial en el Instituto
Tecnológico de Celaya.
El M.C. Manuel Darío Hernández Ripalda es profesor en el Departamento de Ingeniería Industrial en el Instituto Tecnológico de Celaya, su
maestría la realizo en Investigación de Operaciones en el ITESM, miembro del cuerpo académico “optimización de procesos de manufactura y
servicios”, es candidato a perfil deseable PROMEP, ha sido asesor de Seis Sigma y Estadística en la industria.
Resumen— Uno de los principales problemas a los que se enfrentan los estudiantes, técnicos y especialistas en el área
de la Ingeniería Electrónica que se dedican al desarrollo de prototipos electrónicos basados en Microcontroladores, es el
hecho de que existe un número limitado de tarjetas comerciales de evaluación de Microcontroladores. Además las tarjetas
existentes carecen de información y soporte técnico. Por esta razón el objetivo del presente trabajo fue proveer una
tarjeta electrónica para evaluación de microcontroladores ATMEL, que permite la rápida programación de
microcontroladores para crear prototipos electrónicos, de bajo costo y de calidad. La tarjeta diseñada, cubre las
necesidades mencionadas, ya que se ha obtenido una tarjeta de bajo costo, versátil y fácil de utilizar. Dicha tarjeta tiene
un módulo integrado de comunicación serial, que permite hacer comunicación entre ella y la computadora personal, para
el manejo de diversos programas de ingeniería como es el caso de MATLAB.
Palabras clave— Microcontroladores, Atmel, Tarjeta de evaluación, Prototipos.
Introducción
En el presente artículo se explica la forma en que se llevó a cabo el diseño y construcción de una tarjeta de
evaluación de Microcontroladores Atmel para el desarrollo de proyectos electrónicos basados en
microcontroladores. Se pretende llenar un hueco existente en la fabricación de plataformas de desarrollo de
aplicaciones con microcontroladores, ya que muchas veces no se cuenta con las herramientas necesarias para el
desarrollo de prototipos.
A medida que las sociedades han evolucionado, se ha buscado siempre el confort de los seres humanos y eso ha
traído como consecuencia la implementación de sistemas automáticos, sistemas de control remoto, sistemas
autómatas que realicen muchas de las tareas que son repetitivas y que no exigen mucho de la capacidad de las
personas6.
La mayoría de estos sistemas de control y de automatización, son basados en microcontroladores, por esa razón
resulta de gran importancia contar con herramientas versátiles, de bajo costo y de fácil acceso para la evaluación de
los microcontroladores5.
Si bien es cierto que existen algunas tarjetas de evaluación en el mercado, estas tarjetas son costosas, difíciles de
conseguir, difíciles de manejar, existe poca información para su utilización y tienen poco soporte técnico que le
permita al usuario trabajar de una manera más eficiente. Por esta razón se dio la motivación para trabajar en el
presente proyecto, y proveer a los estudiantes, ingenieros y diseñadores que hacen uso de microcontroladores, de
una herramienta accesible que les permita desarrollar prototipos en un menor tiempo y de manera más eficiente.
1 El M.C. José Armando Lara González es Profesor de Ingeniería Electrónica en el Instituto Tecnológico de Lázaro Cárdenas,
Michoacán. alara_gonzalez@hotmail.com
2 El M.C. Fabio A. Aguirre Cerrillo es Profesor de Ingeniería Electromecánica en el Instituto Tecnológico de Lázaro Cárdenas,
Michoacán. fabio4aguirre@yahoo.com.mx
El M.C. Mauro Berber Palafox es Profesor de Ingeniería Electrónica en el Instituto Tecnológico de Lázaro Cárdenas,
Michoacán. berber_mauro@yahoo.com.mx.
4 Santos Uriel García Hurtado es alumno del octavo semestre de la carrera de Ingeniería Electrónica del Instituto Tecnológico de
MODULO
OSCILADOR
PROGRAMADOR PROGRAMADOR
VIA USB SPI
.
Figura 2. Circuito regulador a 5V.
En este módulo también se implementó una salida externa de 3.3V/150mA con el regulador MIC5305-3.3BML, ya
que es necesario para algunos dispositivos externos como los sensores, antenas RF, antenas WIFI, acelerómetros,
giroscopios, pirómetros, etc. En la Figura 3 se muestra a detalle el diseño2.
En la Figura 4 se muestra como está conectado el oscilador externo al microcontrolador, se le pueden colocar
cristales de diferentes valores dependiendo de la frecuencia que se desee trabajar el microcontrolador es capaz de
trabajar a 16 MHz que es su frecuencia máxima.
En nuestro caso utilizamos un cristal de 16 MHz para que trabaje a su máxima frecuencia, los capacitores deben
ser cerámicos según la hoja de datos del Microcontrolador puede ser de 15pF, 22pF o 27pF.
MÓDULO I/O
En este módulo se colocaron los puertos digitales de Entrada/Salida del ATMEGA2560 de una forma organizada
separados por puertos conectados en pin header doble, también se colocó una conexión directa del módulo de
alimentación externa para en caso de alimentarse por este medio con una fuente mayor a 5V. Todos los puertos del
microcontrolador tienen la función de leer o escribir cuando se utilizan como puertos digitales de Entrada/Salida,
cada pin puede proporcionar o recibir un máximo de 40 mA3.
Por otro lado en la Figura 6 se muestra a detalle el diseño del circuito utilizando un ATMEGA8A-AU ya que este
microcontrolador tiene la característica de contener un módulo USB 2.0 Full-speed por lo que nos es posible bajar el
código por un simple cable sin necesidad de usar algún convertidor de niveles de voltaje. Este programador tiene la
capacidad de programar otras familias de microcontroladores AVR, por lo que es indispensable tener un selector
para indicar si programaremos el microcontrolador que tiene la tarjeta u otro externo, por lo que se colocó un
jumper. Al estar el jumper puesto se programará el microcontrolador de la tarjeta, si se retira se indica que se
programará un microcontrolador externo4.
De igual manera en la Figura 8 se muestra a detalle el diseño del circuito utilizando para realizar la comunicación
del microcontrolador y una computadora.
En general, esta tarjeta puede ser utilizada en infinidades de aplicaciones ya que además de tener gran cantidad de
pines I/O colocados en pin headers alrededor de la tarjeta, el microcontrolador cuenta con una variedad de recursos
que van desde comunicaciones, timers, interrupciones y ADC, entre otros. Cabe mencionar que se puede tener
comunicación PC-MCU (computadora personal-microcontrolador) para aplicaciones donde se necesite mandar o
recibir información a la PC.
Se cuenta con 3 leds indicadores de nivel de estado en 3 pines diferentes. Esto hace posible visualizar la entrada o
salida que se encuentra en un pin. En ocasiones hay aplicaciones en las cuales se ocupa monitorear una entrada
digital en un pin, por lo que se implementó un push button con resistencia de PULL-DOWN. En la Figura 9 se
muestran los diagramas para la comunicación serial y los recursos de la tarjeta.
Finalmente en la Figura 10 se muestra el diagrama completo de la tarjeta de desarrollo, en este diagrama se puede
observar la interconexión de cada uno de los módulos de la tarjeta.
Comentarios Finales
El diseño final de la tarjeta desarrollo se implementó a base de componentes con presentación de montaje
superficial como lo son las resistencias, capacitores, LEDs, microcontroladores, chip FTDI y diodos, entre otros
componentes. Lo anteriormente mencionado, con fin de ahorrar espacios y estética. Se implementó un conector
hembra del tipo mini USB para la entrada del programador. En la Figura 11 se muestra el circuito impreso de la
tarjeta de desarrollo. Los módulos I/O del microcontrolador están dispersados por los bordes de la tarjeta conectados
a pin headers dobles. El tamaño final de la tarjeta fue de 90.32mm x 59.69mm
Conclusiones
Se puede concluir que la tarjeta para evaluación de microcontroladores ATMEL es un dispositivo de gran
utilidad para estudiantes de diversas áreas de la ciencia y la tecnología, así como para ingenieros diseñadores de
proyectos electrónicos que solucionan problemas en la banca, comercio e industria. Actualmente está siendo
utilizada para el control del flujo vehicular en la ciudad de Lázaro Cárdena, Mich. Además ha servido de plataforma
de lanzamiento para alumnos que estudian la carrera de Ingeniería Electrónica en el Instituto Tecnológico de Lázaro
Cárdenas.
De igual manera se puede concluir que se ha obtenido una tarjeta electrónica para evaluar microcontroladores
ATMEL, de bajo costo, versátil y fácil de utilizar. Dicha tarjeta tiene un módulo integrado de comunicación serial,
que permite hacer comunicación entre ella y la computadora personal, para el manejo de diversos programas de
ingeniería como es el caso de MATLAB. La tarjeta permite además la evaluación de los microcontroladores dentro
de la misma tarjeta al contar con diodos emisores de luz y botones.
Referencias
[1] Hoja de datos técnicos del regulador de voltaje modelo MC78M05.
[2] Hoja de datos técnicos del regulador de voltaje modelo MIC5205-3.3YM5.
[3] Hoja de datos técnicos del microcontrolador ATMEGA2560 encapsulado TQFP100.
[4] Thomas Fischl, desarrollador del hardware y firmware USBASP
[5] Santiago, E.F. Los Microcontroladores AVR de Atmel. Universidad Tecnológica de la Mixteca, ISBN-978-607-95222-7-8,
2012.
[6] Infante S. David. Notas del curso programación en C de los microcontroladores ATMEL. Instituto Tecnológico de Morelia.
Versión 8.10
Notas Biográficas
El M.C. José Armando Lara González, recibió el grado de Ingeniero en Electrónica en 1992, en el Instituto Tecnológico de Orizaba,
Veracruz. Obtuvo el grado de Maestro en Ciencias en Ingeniería Eléctrica en el Programa de Graduados e Investigación en Ingeniería Eléctrica
del Instituto Tecnológico de Morelia, México, en 2012. Ha laborado como Jefe de Turno en mantenimiento electrónico en la empresa
SICARTSA y actualmente es profesor de tiempo completo en la carrera de Ingeniería Electrónica del Instituto Tecnológico de Lázaro Cárdenas
Michoacán, desde 1990 a la fecha. El maestro Lara cuenta con publicaciones nacionales e internacionales en las áreas de Instrumentación
Electrónica, Sistemas de comunicación y Robótica y desde el año 2015 ha sido distinguido como profesor con Perfil Deseable.
El M.C. Fabio Abel Aguirre Cerrillo, obtuvo el grado de Ingeniero Electromecánico en el año 2002, en el Instituto Tecnológico de Lázaro
Cárdenas. Obtuvo el grado de Maestro en Ingeniería Mecatrónica en el Centro Nacional de Investigación y Desarrollo Tecnológico, México, en
2007. Trabajó como asesor técnico en la empresa alemana Festo Pneumatic. Actualmente es profesor de tiempo completo en el Instituto
Tecnológico de Lázaro Cárdenas. El maestro Aguirre ha hecho publicaciones en foros nacionales en el área de la Mecatrónica.
El M.C. Mauro Berber Palafox, recibió el grado de Ingeniero en Comunicaciones y Electrónica en la Escuela Superior de Ingeniería
Mecánica y Eléctrica del Instituto Politécnico Nacional en 1987. Obtuvo el grado de Maestro en Ciencias en Sistemas Digitales en el Centro de
Investigación y Desarrollo de Tecnología Digital (CITEDI-IPN) en la ciudad de Tijuana B. C. en el año 2013. Ha laborado en la empresa
SICARTSA en mantenimiento a básculas electrónica de alto alcance, así como en básculas de bandas transportadoras. Se desempeñó como
responsable de seguridad radiológica en la misma empresa. Así mismo, se desempeñó como ingeniero de Automatización realizando
levantamiento de señales de proceso y recepción de equipo en plantas productivas. Actualmente es profesor de tiempo completo en la carrera de
ingeniería electrónica en el Instituto Tecnológico de Lázaro Cárdenas desde 1991 a la fecha.
El C. Santos Uriel García Hurtado, es Técnico en Electrónica egresado del Centro de Estudios Tecnológicos Industrial y de Servicios
No.34, del estado de Michoacán y actualmente es estudiante del octavo semestre de la carrera de Ingeniería Electrónica en el Instituto
Tecnológico de Lázaro Cárdenas, Michoacán, México, ha participado en el verano de la investigación científica y tecnología del pacifico, así
como también en concursos de creatividad e innovación tecnológica.
El C. José Roberto Doroteo Puertos, es Técnico Instrumentista egresado del Centro de Estudios Científicos y Tecnológicos No. 5 del
Estado de Michoacán y actualmente es estudiante del octavo semestre de la carrera de Ingeniería Electrónica en el Instituto Tecnológico de
Lázaro Cárdenas, Michoacán, México.
Introducción
Los avances tecnológicos en empaques inteligentes se han desarrollado exitosamente. Este nuevo concepto
innovador consiste en conservar los alimentos, de tal forma que, el empaque y el producto interactúen para mantener
la calidad del producto así como para incrementar el tiempo de vida y sean totalmente amigables con el ambiente ya
que como son de origen natural son degradados fácilmente; dentro de estos empaques activos podemos encontrar los
recubrimientos y películas comestibles. Las películas comestibles contribuyen a mantener la calidad del producto,
mejoran las propiedades sensoriales, aumentan su seguridad e incrementan la vida útil de productos (Beverlya, Janes
et al. 2008); la importancia de las películas comestibles recae en la capacidad de actuar como un conjunto para
mejorar la calidad del alimento en general extender el tiempo de vida de anaquel y mejorar la eficiencia económica
de los materiales de empacamiento. Las películas comestibles se forman a partir de biopolímeros como la gelatina
que es una proteína extraída del colágeno de los animales, derivado de la piel de cerdo y de huesos y pieles de
bovino; tiene diferentes propiedades, es el único hidrocoloide que es una proteína y que se funde de forma reversible
por debajo de la temperatura corporal; un plastificante que son sustancias no volátiles de bajo peso molecular que se
adiciona a un material polimérico para modificar algunas propiedades físicas y mecánicas (Stevens 1993, Anal and
Singh 2007); y algún otro aditivo como agentes antioxidantes, compuestos fenólicos, aceites esenciales que se
pueden encontrar de manera natural en algunos frutos como el xoconostle al cual se le atribuyen propiedades
medicinales por la cantidad de compuestos bioactivos presentes en su estructura que van desde ácidos fenólicos hasta
las betalaínas (Scheinvar and Manzanero 2009); y aceites esenciales como el obtenido de la cáscara de naranja el
cual tiene una marcada estabilidad antioxidante que se atribuye a la presencia de a-tocoferol y d-limoneno; pero esta
actividad antioxidante no sólo puede atribuirse exclusivamente a a-tocoferol sino a una actividad sinergista de todos
los compuestos antioxidantes como las flavonas que tiene este aceite (Waters, Kesterson et al. 1976). Los
compuestos bioactivos son de fácil degradación por lo que se ven beneficiados en procesos de encapsulamiento
como las nanoemulsiones que son sistemas transparentes o translúcidos con un tamaño de partícula que va de 20 a
200 nm, son termodinámicamente estables ya que a largo plazo no presentan floculación o coalescencia, no pueden
formarse de forma espontánea; por lo tanto es necesario la aplicación de energía mecánica para su formación como el
ultrasonido (Tadros, Izquierdo et al. 2004); por los que al incorporarlos a una matriz polimérica como la red de
gelatina estos logran dar al empaque una funcionalidad convirtiéndolo en un empaque inteligente.
1
Arely León López estudiante de posgrado en la Universidad Autónoma del Estado de Hidalgo, México arlely@hotmail.com
2
El Dr. Gabriel Aguirre Álvarez es Profesor Investigador de la Universidad Autónoma del Estado de Hidalgo, México
aguirre2@yahoo.com
3
La Dra. Norma Güemes Vera Profesor Investigador de la Universidad Autónoma del Estado de Hidalgo, México
njgv2002@yahoo.com.mx
4
El Dr. Rafael Germán Campos Montiel es Profesor Investigador de la Universidad Autónoma del Estado de Hidalgo, México
ragcamposm@gmail.com
Elaboración de nanoemulsiones.
La nanoemulsión fue del tipo agua en aceite W/O; para su elaboración se utilizaron 70% de aceite de
naranja CEDROSA Central de Drogas S.A. de C.V. lote número IT1460214; 20 % del extracto de xoconostle;
y como agente tensoactivo lecitina de soya en estado líquido REASOL Reactivos Analíticos-Colorantes-
Indicadores lote 9800, se sometieron a ultrasonido en un Ultrasonido Sonics Vibra-cell con sonda de 6 mm
de diámetro durante 20 intervalos de 59 segundos de sonicación con periodos de descanso de 10 segundos
usando 80% de amplitud con una frecuencia de 20 kHz (Salvador 2015).
mezcla en un espectrofotómetro, a una longitud de onda de 760nm. Los resultados obtenidos, fueron
expresados en miligramos equivalentes de ácido gálico por cada gramo de muestra (mg EAG/g de extracto).
Determinación de flavonoides totales.
Se realizó mediante el método de Dowd, adaptado por Arvouet-Grand et al., (1994). Se utilizó una solución
de tricloruro de aluminio (AlCl3) (Fermont, Productos Químicos Monterrey, Monterrey, México) al 2% en
metanol. Posteriormente se colocaron 2mL de la muestra (película comestible con nanoemulsión), se agregó
2mL de solución metanólica de AlCl3, se dejó reposar durante 20min en la obscuridad, posteriormente se
tomaron lecturas a una longitud de onda de 415nm en un espectrofotómetro. Los resultados fueron
expresados en mg equivalentes de Quercetina (mg/EQ)/g de muestra.
L*
Tratamiento
Tiempo 0 2 4
aA
1:1 44.67 46.67 46.88cB
aB
aA
1:0.75 45.06 48.81cA 45.52aB
1:0.50 45.69aA 46.67aB 46.85cB
1:0.25 45.26aA 46.43aB 45.42aA
1:0.10 46.40abA 46.76aA 46.09bA
1:0 49.66bA 48.04bA 47.75aA
Cuadro 1. Valores de la coordenada *L de la
película de gelatina con nanoemulsiones tipo
W/O durante 4 semanas. aComparación
estadística de columnas por prueba Tukey P≤
0.05. A Comparación estadística de fila por
prueba Tukey P≤ 0.05.
Tiempo 0 2 4
Tratamiento a* b* a* b* a* b*
1:1 -1.23cB 16.14dA -1.15cB 15.51eA -1.50aA 17.82fB
1:0.75 -1.61bA 15.21dA -1.66aA 16.25fB -1.26bB 17.21eC
1:0.50 -1.93aA 13.72cB -1.19bB 7.31dA -1.11cB 14.80dC
1:0.25 -1.49bA 9.14bB -1.16bcB 7.23cA -1.03dC 11.60cC
1:0.10 -1.47bA 8.16bB -1.15cB 6.48bA -0.73eC 8.52bB
1:0 -0.88dA 0.71aA -0.33dC 1.68aB -0.40fB 4.62aC
Cuadro 2. Valores de las coordenadas a* y b* de la película de gelatina con nanoemulsiones tipo W/O en
función del tiempo. aComparación estadística de columnas por prueba Tukey P≤ 0.05. AComparación
estadística de fila por prueba Tukey P≤ 0.05.
Resumen de resultados
La incorporación de compuestos bioactivos a los empaques a base de gelatina proporciona una protección
extra de los mismos como se puede notar en los fenoles (Figura 1a) los cuales se logran mantener dentro de la
matriz hasta en un 66.80% en la película a la cual se le agregó la mayor concentración de nanoemulsión a las
4 semanas de almacenamiento a temperatura ambiente ya que los valores van de 42.32± 0.02 hasta los
27.601± 0.04 mgEAA/mg, notándose que las películas a las cuales se les adicionó una cantidad menor de
nanoemulsión lograron mantener dentro de la estructura hasta el 100% de los compuestos nanoemulsionados
como en el caso de la película 1:0.10 los valores van de 10.38±0.04 hasta 17.39±0.03 siendo mayor el
contenido de fenoles después de las 4 semanas de almacenamiento lo que pudo deberse a que la nanoemulsión
pudo verse afectada y así liberar algunos de los compuestos bioactivos a la red filmogénica, el mismo
comportamiento se presenta en la película la que contiene 1:0.25 presenta una concentración de 20.86±0.05
mg EAA/mg en la semana 0 llegando a una concentración de 25.28±0.07 mg EAA/mg en la semana 2 y
alcanzando una concentración de 22.76±0.02 mg EAA/mg siendo mayor la concentración después de las 4
semanas que al inicio del experimento.
En el caso de los flavonoides (Figura 1b) se logran mantener dentro de la matriz polimérica hasta en un 71
.77% a la semana 2 en la concentración 1:0.10 ya que los valores van de 8.15±0.03 mg EQ/mg, siendo esta
película la que mantuvo un mayor porcentaje de flavonoides dentro de la matriz también en la semana 4 del
experimento logrando mantener hasta en un 61.47% presentando 5.01 mg EQ/mg, la película que presentó un
elevado porcentaje de flavonoides fue la de la concentración 1:1 que pasó de 28.03±0.10 hasta 19.03±0.08
mg EQ/mg a la semana 2 lo cual representa un 66.70% respecto de la semana 0, llegando a valores de
16.41±0.02 mg EQ/mg lo cual representa un 58.54 % del total de los flavonoides a la semana 4 del
experimento; mientras que una de las concentraciones que presentan una mayor disminución del porcentaje
que se mantuvo dentro de la película fue la 1:0.50 ya que de la semana 0 en la cual se obtuvo un valor de
20.49±0.04 hasta 9.79±0.05 mg EQ/mg a la semana 2 lo que representa un 47.80% del total, y a las 4 semanas
se obtuvo un valor de 9.30±0.02 mg EQ/mg representando este valor un 45.38% del total de flavonoides.
Otro de los antioxidantes evaluados durante las 4 semanas del experimento fueron las betalaínas (Figura
1c), notándose la presencia de estos compuestos después del tiempo al que fueron sometidos los empaques y
entre mayor es la concentración de nanoemulsión el contenido de betalaínas aumenta, en la película 1:1 se
tuvo un total de betalaínas a la semana 0 de 0.01448±0.0001 mg Betalaínas/mg a un valor de 0.01402±0.0002
mg Betalaínas/mg logrando mantener un 96.82% del total de betalaínas en la película y a la semana 4 se
mantuvo un 88.74% con 0.01285±0.001 mg Betalaínas/mg a diferencia de la concentración menor agregada
de nanoemulsión (1:0.10) la cual presenta un valor a la semana 0 de 0.00799±0.001 mg Betalaínas/mg y a la
semana 2 se mantuvo un 98.12% con valores que van hasta 0.00784±0.001 mg Betalaínas/mg y a la última
semana de experimento se mantuvo un 63.82% con 0.00510±0.002 mg Betalaínas/mg.
En cuanto al color los valores obtenidos para luminosidad (Cuadro 1) tomando en cuenta que L* va de 0
(negro) a 100 (blanco) en la semana 0 no presentan diferencias significativas (p≤ 0.05) entre las películas a las
cuales se les adicionó la nanoemulsión pero si todas ellas son diferentes a la película control; a la semana 2
del experimento las películas si mostraron diferencias significativas entre los tratamientos 1:1,
1:0.50,1:0.25,1:0.10 con el tratamiento 1:0.75; y de nuevo todas las películas con nanoemulsión fueron
diferentes estadísticamente a la película control; para la semana 4 los tratamiento 1:0.25 y 1:0.75 no presentan
diferencia estadísticamente a la película control; los tratamientos 1:1 y 1:0.50 son iguales entre si y todos los
tratamientos son diferentes estadísticamente al tratamiento 1:0.10. Los tratamientos 1:0.10 y el control no
presentaron diferencias significativas respecto del tiempo mientras que los otros tratamientos mostraron una
diferencia al paso de las semanas de experimento; estas diferencias por tratamiento y por semana pueden
deberse a que la nanoemulsión incorporada a la película pudo sufrir una separación de fase.
Las coordenadas a* que va de tono rojo (+) a verde (-) como se muestra en el cuadro 2 los tratamientos a
los que se les agregó la nanoemulsión presentan diferencias significativas (p≤ 0.05) respecto de la película
control en las semanas a las cuales se realizó el experimento, siendo la semana 4 en la cual se mostró una
diferencia entre todos los tratamientos; mientras que en los tratamientos 1:0.25 y 1:0.10 muestran diferencias
entre cada semana a las cuales se midió la coordenada a*. Para la coordenada b* que va de tono amarillo (+)
a azul (-) en la semana 2 y 4 todos los tratamientos fueron diferentes entres si, en la semana 0 los tratamientos
1:0.25 y 1:0.10 no presentaron diferencias significativas entre ellos y fueron diferentes a los demás
tratamientos; mientras que los tratamientos 1:0.75, 1:0.50, 1:0.25 y 1:0 mostraron diferencias significativas
por semana de medición, y a los tratamientos a los que se agregó nanoemulsión presentaron tonos amarillos;
por lo que el color del aceite esencial afecta directamente el color de la película final (Tongnuanchan,
Benjakul et al. 2013).
Conclusiones
Las películas a base de gelatina al ser incorporadas con nanoemulsiones elaboradas a base de aceite de
naranja y extracto de xoconostle son considerados como empaques inteligentes, ya que al lograr encapsular en
la red filmogénica la nanoemulsión otorga al mismo una capacidad antioxidante que permanece después de 4
semanas.
Recomendaciones
Los investigadores interesados en continuar con este trabajo de investigación podrían investigación podrían
evaluar las características mecánicas del empaque para poder caracterizarlo de manera completa y poder
usarlo en algún alimento específico de acuerdo a sus características.
Referencias bibliográficas.
Aguirre A. G., et al. "The effect of drying temperature on mechanical properties of pig skin gelatin films El efecto de la temperatura de
secado sobre las propiedades mecánicas de películas de gelatina de cerdo". CyTA-Journal of Food 9 (2011) 243-249.
Anal, A. K. and H. Singh. "Recent advances in microencapsulation of probiotics for industrial applications and targeted delivery". Trends
in Food Science & Technology 18 (2007) 240-251.
Arvouet-Grand A, Vennat B, Pourrat A, Legret P. “Standardisation d’un extrait de propolis et identification des principaux constituants”,
J Pharm Belg. 49 (1994) 462-8.
Beverlya, R. L., et al. "Edible chitosan films on ready-to-eat roast beef for the control of Listeria monocytogenes". Food Microbiology 25
(2008) 534-537.
Castellanos Santiago, E. and E. M. Yahia. "Identification and quantification of betalains from the fruits of 10 Mexican prickly pear
cultivars by high-performance liquid chromatography and electrospray ionization mass spectrometry." Journal of Agricultural and Food
Chemistry 56(2008) 5758-5764.
Morales, E. “Evaluación de las propiedades funcionales de pulpa de xoconostle (Opuntia oligacantha) y su conservación mediante
microcápsulas”. Universidad Autónoma del Estado de Hidalgo. México (2012)
Pérez-Alonso, C., et al. "Stabilization of phenolic compounds from Opuntia Oligacantha Först by microencapsulation with Agave sap
(Aguamiel)". Revista Mexicana de Ingeniería Química 14 (2015) 579-588.
Salvador, G. T. "Encapsulación de compuestos antioxidantes del xoconostle (Opuntia oligacantha C. F. Först) en naoemulsiones".
Maestria en Ciencia de los Alimentos, Universidad Autónoma del Estado de Hidalgo, México (2015) 46-48.
Scheinvar, L. and G. Manzanero. "Opuntia chiangiana, una nueva especie de Cactaceae de Oaxaca, México". Journal for Botanical
Nomenclature 19(2009) 222-228.
Singleton, V. L., et al. "Analysis of total phenols and other oxidation substrates and antioxidants by means of folin-ciocalteu reagent".
Methods in enzymology(1999) 152-178.
Stevens, M. P.Polymer additives: Part I. Mechanical property modifiers. Journal of chemical education 70 (1993) 444.
Tadros, T., et al. "Formation and stability of nano-emulsions". Advances in Colloid and Interface Science 108–109 (2004) 303-318.
Tongnuanchan, P., et al. "Physico-chemical properties, morphology and antioxidant activity of film from fish skin gelatin incorporated
with root essential oils". Journal of Food Engineering 117 (2013) 350-360.
Waters, R. D., et al. "Method for determining the α‐tocopherol content of citris essential oils". Journal of Food Science 41 (1976) 370-
371.
Resumen
Observando la situación actual que se tiene en las empresas madereras de Santiago Papasquiaro en
cuanto a ergonomía, se ha visto que no existe ningún dato registrado de medidas antropométricas y
tampoco se considera la ergonomía un tema fundamental para ser aplicado en las empresas, ya que, se sus
administradores carecen de información y su utilidad.
Este proyecto se enfocó en conocer cuáles son las principales empresas de Santiago Papasquiaro Dgo.,
de esta forma se identificó cual empresa seria la apropiada para la investigación, y dio como resultado la
empresa Silvilndustria General Emiliano Zapata “SEZARIC” esta empresa cuenta con todas las
características, la maquinaria adecuada y el número de trabajadores.
Introducción
Con este trabajo se determinaron las medidas antropométricas que requieren las empresas de madera
de la ciudad de Santiago Papasquiaro, así como lo que requiere para realizar los trabajos en el área de
producción, para esto consiste en saber lo que es la antropometría, la importancia de la misma así como
los factores que influyen en las dimensiones del cuerpo.
El presente trabajo, aborda lo siguiente:
Primeramente “antropometría y medidas antropométricas” consiste en saber lo que es la
antropometría, la importancia de la misma así como los factores que influyen en las dimensiones del
cuerpo.
Posteriormente, “Empresas de Santiago Papasquiaro” se enfocó en conocer cuáles son las principales
empresas de Santiago Papasquiaro Dgo. De esta forma se identificó cual empresa seria la apropiada para
la investigación, y dio como resultado Silvilndustria General Emiliano Zapata “SEZARIC” esta empresa
cuenta con todas las características, la maquinaria adecuada y el número de trabajadores.
Se menciona la situación actual del trajo y la seguridad para el empleado al igual que se da a conocer
cuáles son las principales medidas antropométricas para hombres y mujeres en las diferentes posiciones.
Se formularon cuestionarios para el personal operativo y para los encargados de las áreas. Se realizó
un formato para cuando se tengan que hacer las mediciones al personal y de esta forma facilítale el
trabajo al diseñador. Fue importante presentar cuales son los instrumentos antropométricos necesarios
para cada una de las medidas.
Se identificaron las “medidas requeridas por las empresas” aquí se describe cuáles son las principales
medidas antropométricas requeridas por las empresas, el por qué es necesario conocerlas y los beneficios
que les otorgan a ellas y directamente a sus empleados.
1
José Guadalupe Levario Torres M. en P. es Profesor del Instituto Tecnológico Superior de Santiago
Papasquiaro, Durango México. joselevariot@gmail.com (autor corresponsal)
2
El Dr. Ricardo Gabino Betancourt Sánchez es Profesor del Instituto Tecnológico Superior de Santiago
Papasquiaro de Durango, México beta20991@hotmail.com
3
La Ing. Luz Marcela Reyes Sánchez es profesora del Instituto Tecnológico Superior de Santiago
Papasquiaro de Durango, México margelina76@hotmail.com
4
EL M. T. I. Juan Antonio Villanueva Flores es profesor del Instituto Tecnológico Superior de Santiago
Papasquiaro de Durango, México m.t.i.jauF@gmail.com
A continuación se muestran las áreas más comunes que se presentaron en las empresas que se
analizaron la primera de ellas fue:
El área de Recepción de Materia Prima (El trozo llega al patio de trocería, con corteza y en largo de
3.20mts 4mts y 4.25mts y se ordena por diámetros.
Descortezado: (Aquí los trozos son descortezados manualmente para que quede libre de corteza y
facilitar el proceso de aserrado
Patio de tracería: en esta área se recibe la madera en rollo con un diámetro variables de 13” hasta 15”
la cual se entonga dependiendo de la calidad y para que valla ser requerido.
Área verde: aquí se convierten los trozos en chapa, desde la dimensión y el desenrollado de la troza, el
guillotinado de chapa y la clasificación de la misma.
Área de Aserrado: en esta fase son llevadas las trozas. Al proceso de cortado o el aserrado lo único
que hace es dividir en trozos la madera según el uso que se le vaya a dar después.
Calderas: se encarga de suministrar energía calorífica a diferentes partes y áreas de la empresa:
secadoras, prensas, pilas de cocción e inclusive otra empresa, para logar esto se requiere de una constante
alimentación de combustible que regularmente son sobrantes de material de madera.
Área de secadoras: esta área tiene el objetivo de deshidratar toda la chapa, tratando de obtener un
material con 8 a 12% de humedad, en esta empresa se tiene la experiencia que con este rango de humedad
la chapa tiene mayor durabilidad, ya que, al manipularla no se muestra quebradiza ni dócil.
Área de engomadoras: el objetivo en esta área es darle forma al Triplay (Tablero contrachapado),
dependiendo de los calibres del producto es la cantidad chapa que se usa, aquí se unen chapas centros con
interiores y vistas con hilos de madera en forma perpendicular hasta obtener el producto especificado.
Área de prensas: está destinada a unir las chapas por medio de presión y calor, con el objetivo de
obtener un tablero uniforme y con una buena calidad de fraguado. Área de producto terminado: aquí se le
da el acabado al tablero contrachapado, primeramente se dimensiona (eliminando las cuatro orillas por
medio de sierras dobles), después se resana defectos de chapa para darle el acabado final de pulido.
Posteriormente se clasifica y se empaquetan los tableros dependiendo de su calidad.
Área de mantenimiento: esta se encarga de mantener y cuidar los equipos y máquinas para el correcto
funcionamiento. En las empresas tiene presentes los dos tipos de mantenimiento; preventivo, controlado
con programas diseñados en la empresa y el correctivo aplicado en el momento que se requiere. Esta área
no es muy grande baria de acuerdo al número de maquinaria con la que cuentan y en algunas fábricas los
encargados son los mismos trabajadores que las operan.
A continuación se muestran algunos equipos de producción que son comunes en las áreas de producción de las
empresas madereras de Santiago Papasquiaro Dgo, primeramente esta es una maquina pulidora que involucra que
los trabajadores utilicen la posición brazos por encima de los hombros para realizar el trabajo, en esta imagen se
describen algunas de las 52 medidas antropométricas detectadas en las áreas de producción.
A continuación se muestra la descripción de las medidas necesarias para trabajar en la maquina pulidora así
como los códigos de estas (ver cuadro No. 1).
En la figura No.2 se muestran las medidas básicas que se requieren para trabajar en una maquina cortadora de
las empresas de madera de la ciudad de Santiago Papasquiaro en la posición de Pie Normal.
Cabe mencionar que la mayoría de los trabajos en la industria de la madera son en posición de pie en la mayoría
de las empresas que se realizó la investigación como se puede observar también en el cuadro No.2.
Para este trabajo se generó una carta antropométrica que concentra las diferentes medidas antropométricas de las
personas del área de producción de las empresas de madera de la ciudad de Santiago Papasquiaro Dgo. que
comprende medidas en posición de pie, sentado y otras dimensiones (medidas de la mano, del pie y de la cabeza)
Estas medidas se concentran en una carta antropométrica misma que sirve de base para recabar información de
ellas y están acompañadas de diversos dibujos para poder apreciar cuales son las medidas de cada posición, también
viene otra información necesario para controlar los documentos de esta carta como lo es (El nombre de la empresa el
No. De revisión, Fecha de medición, Porcentaje de grasa, Edad, fecha de nacimiento, Estatura de pie, estatura
sentado, el nombre de la persona y el peso) estos datos se encuentran en las figuras No. 3 y 4 y le ayudaran al
ergónomo a poder trabajar en cualquiera de los diseños ergonómicos en cualquiera de los tres principios
antropométricos (principio de los extremos, de los promedios y de intervalo ajustable).
Como beneficio de esta investigación se observa que al conocer algunas medidas, como, cabeza, pies y manos,
les ayuda no tanto en mejorar su estación de trabajo, sino para la adquisición del equipo de seguridad de cada uno de
sus trabajadores. De esa forma, se podrá proporcionar el equipo que mejor se adapte a las necesidades del trabajador,
como se aprecia en la figura No.4.
También se detectaron las siguientes posiciones de trabajo de pie: con los brazos en extensión frontal, con los
brazos por encima de los hombros, normal, de pie: inclinado con los brazos extendidos al frente, de pie: inclinado
brazos extendidos al frente, de pie: muy inclinado con los brazos al frente.
.
Figura 4. Carta Antropométrica con medidas (Posiciones de Pie y Otras Dimensiones II)
Comentarios Finales
Resumen de resultados
Como beneficio que se observa que al conocer algunas medidas, como, cabeza, pies y manos, les ayuda no tanto
en mejorar su estación de trabajo, sino para la adquisición del equipo de seguridad de cada uno de sus trabajadores.
De esa forma, se podrá proporcionar el equipo que mejor se adapte a las necesidades del trabajador.
La mayoría de las la personas que trabajan como obreros en las principales empresas de Santiago Papasquiaro
desconocen por completo que es la antropometría y por consecuencia la relación que tiene con las estaciones de
trabajo los equipos y herramientas que se utilizan para desempeñar sus funciones.
En la presente investigación observamos y señalamos la importancia de las medidas antropométricas en las
estaciones de trabajo, el correcto diseño de las estaciones de trabajo con la aplicación de la ergonomía ha traído
infinidad de mejoramiento en el desempeño de las actividades, ha aumentado la producción, en rendimiento del
trabajador lo más importante ha aumentado la salud de las personas al estar más seguros y cómodos en sus áreas.
A continuación se muestran los resultados de una encuesta que se les aplico a los trabajadores a una muestra de
200 empleados de 1000 aproximadamente que laboran en las empresas de madera y se observa como los obreros
mencionan las posiciones de trabajo en las que sienten más molestias a la hora de realizar su trabajo para esto ver la
gráfica No.1 que se muestra a continuación.
Se obtuvieron resultados de las principales molestias que sufren en el cuerpo los trabajadores debido a la tarea
que realizan siendo la más alta el dolor en la cintura, cabe mencionar que en las áreas con las que cuentan las
empresas se observaron una gran cantidad de deficiencias en el diseño de sus puestos de trabajo, esto precisamente
originado por no conocer las medidas antropométricas que se requieren para que trabajador pueda llevar a cabo su
trabajo en forma eficiente. Para poder apreciar con mayor exactitud los resultados ver la gráfica No.2.
.
Grafica 2. Molestias de las personas
Conclusiones
Las principales medidas que las fábricas les interesa conocer son las que van ligadas al equipo de seguridad,
como son los guantes, zapatos, y cascos. De esta forma conocerían que tipo de equipo y sus medidas tienen que
comprar para cuando se necesiten y no tener rezagados en el almacén cosas que no se utilicen.
Por otra parte también les interesa conocer las medidas antropométricas para la fabricación de estaciones de
trabajo. Tomando en cuenta que medidas de seguridad se necesitan en cada puesto y qué tipo de personas pueden
ocuparlo. En ocasiones no todas las personas pueden operar en esa área por motivos de alcanzar un control o que no
quepa un pie en un pedal, activar un botón, alcanzar a ver un display, una luz de emergencia entre otros tantos usos
que se le pueden dar desde el punto de vista de la ergonomía todo esto en función de las capacidades físicas del
trabajador de producción de las empresas de madera de la ciudad de Santiago Papasquiaro.
Recomendaciones
El trabajo deja las bases para poder llevar a cabo la toma de las medidas antropométricas en cada una de las
empresas, ya que se cuentan con los formatos necesarios para recabarlas, así como las medidas que realmente
necesita cada empresa en las áreas de producción de la ciudad de Santiago Papasquiaro.
Cabe mencionar que este proyecto de investigación es generador de otros relacionados con la ergonomía, ya que
el tener identificadas cada una de las medidas que se necesitan, dan pauta a otros trabajos como el antes mencionado
y este a su vez puede generar otros como el diseño de los puestos de trabajo en las empresas de acuerdo a estas
mismas medidas.
Este proyecto también contribuye a otros tipo de estudios que se pueden relacionar con otras áreas de la Ing.
Industrial como lo son el estudio de tiempos y movimientos (a detalle), esto se puede desarrollar en un a siguiente
etapa (Therblig, sistemas de tiempos predeterminados) con el fin de desarrollar una plataforma que permita obtener
y procesar información en forma rápida en busca de mejorar el trabajo a nivel operativo.
Referencias
Llaneza Álvarez Francisco Javier Ergonomía y psicosociología aplicada. Manual para la formación del especialista.
Editorial: Lex Nova/ ISBN (13):9788484067771
Chiner Dasi Mercedes, D. J., & Alcaide Marzal, J. (s.f.). Laboratorio de Ergonomía. Ed. Alfaomega.
Ferdinan, B., & Johnston, R. (2007). Mecánica Vectorial para Ingenieros, Estática. Ed. Mc Graw Hill.
Mondelo R., P., Gregori, E., Blasco, J., & Barrau, P. (s.f.). Ergonomía 3, Diseño de puestos de trabajo. 2da. Edición. Ed. Alfaomega.
Mondelo R., P., Gregori Torada, E., & Barrau Bombardo, P. (s.f.). Ergonomía 1 Fundamentos. 3era. Ed. Alfaomega.
Jeffrey E. Fernández, Robert J. Marley, Salvador Noriega, Gabriel Ibarra. Ergonomía Ocupacional. Diseño y
administración del trabajo. Editorial: International Journal of Industrial Engineering. ISBN (13):9780965450652
Notas Biográficas
El M. en P. José Guadalupe Levario Torres Este autor es profesor del Instituto Tecnológico Superior de Santiago Papasquiaro en Santiago
Papasquiaro, Durango, México. Terminó sus estudios de maestría en el centro pedagógico de Durango. Ha presentado 3 ponencias en congresos
nacionales e internacionales Congreso Internacional de Academia Journals.com CELAYA 2015.
El Dr. Ricardo Gabino Betancourt Sánchez es profesor del Instituto Tecnológico Superior de Santiago Papasquiaro en Santiago
Papasquiaro, Durango, México. Terminó sus estudios de maestría en el centro pedagógico de Durango. Y su Doctorado en Escuela libre de
Ciencias Políticas y Administración Publica de Oriente. Ha presentado 1 ponencias en congresos nacionales e internacionales Congreso
Internacional de Cuerpos Académicos 2015. Ha presentado 3 ponencias en congresos nacionales e internacionales Congreso Internacional de
Academia Journals.com CELAYA 2015.
La Ing. Luz Marcela Reyes Sánchez es profesora del Instituto Tecnológico Superior de Santiago Papasquiaro en Santiago Papasquiaro,
Durango, México. Termino sus estudios de Maestría en la FCA Facultad de Contaduría y Administración de la Universidad Juárez del Estado de
Durango. Ha presentado 1 ponencia en congresos nacionales e internacionales Congreso Internacional de Academia Journals.com CELAYA
2015.
EL M. T. I. Juan Antonio Villanueva Flores es profesor del Instituto Tecnológico Superior de Santiago Papasquiaro de Durango,
mti.jauF@gmail.com.
Resumen—Este trabajo responde a un ejercicio de investigación con referencias empíricas en las comunidades étnicas y
cuyo trabajo se centró en conocer las posibilidades que tiene la niñez de identificar la importancia de la igualdad de género,
la eliminación de la violencia de género desde los propios contextos en situaciones socio-geográficas diferenciales y cuya
expresión cultural responde a la directa opinión de los niños y niñas de las escuelas de primaria intervenidas. La relación
cultural de la escuela y la comunidad presentan un contexto donde es posible pensar aún que la escuela sigue siendo una de
las instituciones con mayor proclividad a influir en una formación más igualitaria a colocar escenarios libres de violencia
al asumir un rol educador, no solamente instruccional.
Palabras clave—Vulnerabilidad, interculturalidad, desigualdad, violencia de género, entorno escolar.
Introducción
En un país como el nuestro, el mexicano, con una población de 121 millones 783 mil 280 mexicanos, reveló la
secretaria general del Consejo Nacional de Población (Conapo), Patricia Chemor, en vísperas del Día Mundial de la
Población que se conmemoró el 11 de julio de 2015, y en Sonora con una población de más de 2 millones 700 mil
habitantes, las etnias siguen siendo minoría y siguen desarrollándose en condiciones de alta vulnerabilidad,
desigualdad y con ejercicios de exclusión.
Ahí construimos nuestro trabajo de campo en el marco de los derechos humanos de la niñez Seri, Yaquis, Pimas y
Mayos para conocer los modelos de género que imperan dentro de la funcionalidad estructural de las escuelas con
asentamiento en las comunidades étnicas tratando de identificar desde la perspectiva de género los indicadores de
igualdad, las condiciones de posibilidad para alcanzarlas y los riesgos culturales de la oficialidad educativa para
explicar el detonante concepto de inclusión. La pregunta que nos hicimos como equipo de trabajo fue ¿Cuáles son los
rasgos de los roles de género para conformar una matriz interpretativa de las estructuras escolares para la erradicación
de la violencia de género desde la ordenación de los territorios Yaqui, Seri, Pimas y Mayos?
1
Dr. Abel Leyva Castellanos, Profesor-Investigador de la Universidad Autónoma de Sinaloa. aleyvacastellanos@uas.edu.mx
2
Mtra. Esther Edelmira Vásquez es Profesora de la Normal Superior de Hermosillo Sonora vasquezesther15@gmail.com
El propósito fue consolidar instrumentos pedagógicos que generen equidad de género en la niñez de los pueblos
originarios de las comunidades intervenidas partiendo de las condiciones de posibilidad de la reconstrucción
organizacional basada en la influencia de la niñez en la familia hegemónica en las distintas etnias. Las comunidades
Yaquis, Seris, Pimas y Mayos registran cifras altas de violencia de género y desde mecanismos lúdicos se busca
disminuir la incidencia generacional de la violencia de género. Desde la Prevención, la Atención, Sanción y
Erradicación de la violencia contra las mujeres en las comunidades de los pueblos originarios arriba mencionada.
La matriz de rasgos de género nos describe los recursos sociales para responder a las condiciones económicas,
sociales, culturales, políticas en el ejercicio doméstico asociado a la organización escolar, y el interés técnico de la
investigación es reconocer la hoja de ruta de la niñez de las etnias para el desarrollo del trabajo, de la organización del
aprendizaje, la asociación entre aprendizaje y el rol de género, las relaciones que guardan con sus pares. La
investigación desarrolló parte del sistema para la Prevención, la Atención, la Sanción y la Erradicación de la violencia
contra las mujeres (PASE) dirigido a la niñez de las etnias sonorenses que registraban violencia contra las mujeres, la
intervención buscó fortalecer las buenas prácticas escolares-familiares mediante la recuperación del lugar de cada una
de las personas y los roles puestos en equidad para influir en la modificación intergeneracional de las cadenas de
interacción por la que fluye la desigualdad como estructura social, la intervención operó ejercicios sociales lúdicos
que modifiquen la cadenas de significados promotoras de la desigualdades desde una perspectiva multidimensional,
transdisciplinar e interdisciplinar.
Por lo que metodológicamente nos abocamos a repensar en la dimensión de la pluralidad de estructuras formativas,
informativas que crean, encauzan las dinámicas escolares y que promueven una perspectiva de género. Ante esto,
intervenimos desde el interior de un taller para Padres y Madres de las etnias arriba mencionadas que tienen a sus hijos
en la escuela en la que intervenimos y, por otro lado, en un taller que configuró el rol del docente en interacción con
las niñas y los niños del aula, así como el diseño de un taller lúdico que precisó de una guía de trabajo que desglosara
actividades que promovían al decir del propio texto la igualdad de género, a esto se le llamó Taller lúdico ‘’Las niñas
y los niños somos iguales y tenemos los mismos derechos’’ auspiciado por el programa de Sedesol e Indesol.
El presente informe tiene tres grandes partes, la primera tiene que ver con la perspectiva de Padres y Madres de
familia frente a la violencia de género, a los roles de género y a las posibilidades que desde ahí tiene para encontrar
una ruta de mejora; la segunda refiere a la fusión cultural ofrecida desde los cercos informativos de los distintos medios
de comunicación e información que han llegado a las comunidades y entre ellas, la propia escuela; y la tercera parte
responde a la dimensión del comportamiento didáctico de la niñez de las etnias intervenidas donde es posible localizar
los techos de cristal referidos a la igualdad y la inclusión. Las tres grandes partes corresponden a una experiencia en
campo en las propias comunidades y en los espacios concretos ultra locales de las escuelas intervenidas de las
comunidades arriba señaladas.
Acerca de la metodología.
La sociología como una disciplina de las humanidades opera el dialogo desde las relaciones de los sujetos y desde
las subjetividades, la subjetividad y como efecto la simbolización ofrece un tipo de dialogo constante entre los seres
humanos, y para este caso vio y ha visto hacer pedazos los mitos, las ideas, los espacios fijos: estamos destinados a
recorrer el mundo masivamente derruido y anclado a los misterios de la miseria, la pobreza, las personas
mayoritariamente, en los linderos del monte y la ciudad derivan su incertidumbre de pertenencia, de identidad y
voltean a ver a cual de esos espacios pertenecen. Las voces de la niñez nos proveen del rol de la mujer adulta, del
trabajo que desarrolla, como lo desenvuelve, por qué lo despliega y para qué lo tiende dejando traslucir el tipo de
actividad en las finanzas familiares, el mercado de trabajo en la ruralidad, los derechos civiles, humanos, culturales y
sociales dentro del trabajo del femenino. De ahí que nuestra reflexión metodológica radica en que tenemos una
concepción transdiciplinar exigida por la condición compleja de las multi-dimensionalidad de los fenómenos sociales
que estudiamos en este trabajo, la voz de la niñez étnica busca contribuir desde su multidimensionalidad y que las
intersecciones serán los focos a resaltar en este mundo de flujos cruzados de vida y de datos de la población infantil
de las etnias.
De acuerdo con Badiou, el azar juega papeles relevantes en las estructuras históricamente acomodadas, él, recupera
la teoría del sujeto, aquí la recuperamos también porque en el literato se desprende de las estructuras permanentemente
como el filósofo para elucidar la reflexión puesta, pero el literato también recorre los caminos posibles y al hacerlo de
forma autónoma a la estructura rompe con ello, gestando en ese andar de la letra el proceso de ruptura. En Ospina y
recuperando a Alain Badiou, es porque algo surge de algo, y ese algo se manifiesta como parte de la estructura,
entonces, podemos confiar que el antecedente es ese algo, ese algo que hologramáticamente contiene partes del todo
y cuyo espacio rural retrata también en el contorno escolar esa multidimensionalidad donde la individualidad de la
niñez étnica es la síntesis, la aglomeración, la conjunción de esa diáspora del escenario virtuoso de lo social. La historia
de los roles de género en su inmanencia contiene el antecedente; la historia occidental de América Latina, ha gestado
como necesidad estructural esquemas de olvido de los pueblos originarios, América Latina saturada de olvido,
congestionada de historias de los desplazamientos, generadora de máquinas de producir poderes sin escrúpulos, y
aquellos los despojados marcan nuevas coordenadas; hablar de la diáspora es reconvertir que la cultura de las etnias
es centrada en una networks con sus propias tipologías y son sistemas multi-canales que desde las posibles pautas
orienta los tipos de flujos para contrarrestar la invasión del criollismo dominante y del blanqueo de procesos
inimaginables, un trama tejido por símbolos, una memoria asumida para la sumisión y la exclusión que niega los otros
costados de la llana conquista que invisibles e insignificantes, donde el todo es parte del conflicto contribuyendo a la
construcción de la individualidad, no la remplaza. La escuela otorga nombre a falta del nombre propio, esto es que las
etnias son formadas en comunidad generando registro de prácticas solidarias y contemplativas, mientras que la escuela
encamina hacia la individualidad, quizá en la simbiosis de lo humano. Esta teoría del sujeto permite dar cuenta de
fenómenos de creación y de novedad, y, en este sentido, todo sujeto es una novedad.
Los resultados nos dieron que las escuelas en una comunidad étnica trabajan en un doble piso por un lado la
influencia comunitaria con todo los rasgos forman un tipo de persona y por el otro la escuela busca formar otro tipo
de persona; sim embargo, existe un factor común no hay que esperar en el lugar de los demás, es fundamental recuperar
y visibilizar que el sujeto está sobre la base de la búsqueda del bienestar familiar, la develación de algunos de los datos
nos configura la circularidad femenina dentro de sus propios roles describiendo su propia movilidad, presumiblemente
multi-canal enfila su trabajo hacia la mejora de cada uno de los integrantes de la familia.
Esto nos coloca de frente a identificar los derechos humanos de la mujer ante los desafíos estructurales demarcados
por la interculturalidad de las regiones de las etnias, es decir, es complicado no destacar que el escenario que hemos
encontrado en la investigación de campo en las comunidades étnicas concentra núcleos que contienen volúmenes
inmensos de interculturalidad, gestándose un criollismo que opera el sobre el conocimiento y sobre los saberes
milenarios de las culturas. Los talleres lúdicos, nos ofrecen las condiciones de migración femenina, la condición de
maternidad, el rol de las y los docentes en la escuela como precursores del criollismo valoral, la base fija del hogar en
la mujer originaria, la corresponsabilidad de la escuela y la etnia en la supeditación de la mujer en dichas comunidades,
y los ejes que permiten deducir las posibilidades de la renuncia a una vida de violencia de género.
La metodología que proponemos de tipo multidimensional, contribuye a recuperar las energías pre-políticas y
políticas de la mujer de los pueblos originarios, es identificar desde la niñez las condiciones de posibilidad para el
cambio y lo que Peter Sloterdijk le llama “fuerza timótica” y que es la cosa pública que subyace que evita que la
identidad y la cultura de las etnias colapsen, que no estén en fuga como señala Bauman, pero cuyo eje extractivo ha
pulverizado su autonomía creando un vecindad que coloca en peligro las estructuras originarias de las comunidades
originarias. Por lo que retomamos aquí el esquema de la ONU acerca de las dimensiones del desarrollo humano, sus
dos ejes principales, y las dimensiones vulnerabilidad, interculturalidad, violencia de género, entorno escolar como
factores para recuperar el estado social y cultural desde la perspectiva de género.
En le recuperación de los grandes acuerdos mundiales, las dimensiones del desarrollo humano, estriba el
reconocimiento social a la diversidad humana, a las condiciones específicas y al respeto de su localidad, el eje de
“Mejoran directamente las capacidades humanas” implica que en este ejercicio pudimos conocer que la escuela de las
comunidades sí está desarrollando procesos de empatía acerca del conocimiento necesario de las etnias, también
reconoce los saberes y el conocimiento suministrado por generaciones, entonces, encontramos una niñez que no es
escéptica en decirnos de un marco de valores que destacan precisando las nociones y sentidos expuestos para y hacia
la escuela, hacia sus hermanos y hacia lo que ellos le llaman la “verdad”, sobre todo ésta niñez expuesta a las
vecindades con un criollismo rudo, xenófobo, y humillante de las condiciones milenarias de los pueblos originarios.
El entorno escolar lo definimos aquí como ese tejido cultural, ambiental, de saberes y conocimientos, de formas de
con-vivencia, lleno de leyendas y asombros, pero que juega el rol de causalidad pura, la niñez entrevistada, en el taller
lúdico, declaró interés en materia de igualdad de los roles de género, mostró la palabra necesaria dentro de un silencio
solicitado por ellos y ellas, y concedido por el marco cultural que proporciona la escuela.
El presente estudio no es de enfoque intercultural, en nuestro caso, el objeto de estudio, es estrictamente
intercultural, porque en ellos opera un “criollismo” dominante de papeles de apoyo llamados programas
compensatorios heredados de Europa y mal traducidos en el terreno mexicano, sin embargo, en los estudios sobre la
marginalidad, detectamos lo que Jordi Estivill en Robert Castel (2010:16) señala oportunamente “De acuerdo con este
modelo, las poblaciones susceptibles de depender de las intervenciones sociales no solamente están amenazadas por
la insuficiencia de sus recursos materiales que provienen básicamente de su trabajo, sino que también están
fragilizadas por las rupturas de sus lazos familiares y sociales. Al final de este proceso, las condiciones económicas
precarias se convierten en indigencia y la fragilidad relacional en aislamiento”
Esto aumenta la tensión en la medida que la marginalidad, la extrema pobreza alcanza a la escuela, al entorno
escolar y dejando en claro que el mundo no es ya un pueblo, sino pueblos, que orquestan distintos sistemas de tensiones
y que el más fuerte termina por fragilizar, pulverizar las bases culturales del otro entre otros para desintegrar quizá lo
auto-referencial de la vida misma, y colocar sobre la mesa que la modificación desde la escuela puede ser un recurso
aristocrático venido desde el medievo con la operación evangelizante de los conquistadores de entonces, por lo que la
disminución de la efectividad escolar en el respeto a la base cultural en la que interviene, tendría que pasar por el
respaldo a la autonomía de los pueblos originarios, este método primero desarrolla una metodología que intenta
recuperar la fuerza timótica de la niñez de los pueblos originarios.
entrar a la región turística de Bahía de Kino, estaba la pipa de agua, estacionada exactamente debajo del tubo, no había
nadie, parecía abandonada, como lo estaba la comunidad Seri, esos días de visita nuestra.
Resultados:
Los resultados operaron sobre métodos de incorporación instrumental para modificar las cadenas de interacción
desiguales y comunes en las poblaciones de las etnias ya mencionadas. Observamos que desde la niñez podemos
conseguir modificar la hoja de ruta generacional de violencia contra las mujeres. Por otro lado, aun cuando los niños/as
mostraron procesos de desigualdad de género se situaron en condiciones de mayor aceptación de los roles igualitarios.
Resultados sobre el trabajo de los pueblos originarios
Como primer actividad se realizó un diagnóstico para conocer la situación de las niñas y niños de los pueblos
originarios por lo que las indagaciones preliminares sobre el tipo de conceptos que manejaban los niños, sobre sus
referentes de equidad, género, violencia, desigualdad, derechos y problemáticas, fueron hechas a partir de sondeos
utilizando cuestionamientos y resaltando la importancia didáctica de la pregunta como instrumento indagatorio, pero
también, estas observaciones iniciales se derivan de los datos revelados por las actividades iniciales de integración,
las dinámicas que estas propiciaban, resultaron muy ricas como fuente de información sobre el nivel de conocimiento
que manejaban los niños y niñas de los temas a tratar en el taller.
Podemos decir, que en términos generales la información que los niños y niñas manejaban sobre género era
fragmentaria, incompleta y desarticulada, en el mejor de los casos, en otros reportaban no saber de qué se trataba el
tema de género y de equidad. Dentro de estas generalidades se matiza la diferencia, ya que las niñas eran quienes
tenían una mejor aproximación a los conceptos de género, equidad y violencia, demostrando mayor sensibilidad que
los niños y mayor comprensión de estas problemáticas.
En las actividades iniciales, en algunos aspectos se revelaban las características de los roles tradicionales de género,
por ejemplo, en algunos casos era el género el criterio de asociación, pues se reunían y conversaban, principalmente
entre su mismo género. Pero se pudo observar que en otras actividades, como por ejemplo en las actividades socio
recreativas (jugar futbol, actividad tradicionalmente masculina en este país) se evidenciaba que esas estructuras se
estaban trascendiendo, ya que este era una de las actividades reportadas como favoritas en la escuela por las niñas.
Posteriormente al final de los talleres se realizó un evaluación para conocer los datos sobre el impacto del taller
impartido, ya que era importante conocer y hacer un sondeo de las principales temáticas y la evaluación de las
opiniones sobre el taller, así también, como de las observaciones realizadas en el ambiente natural de los niños en el
momento de la salida de la escuela y los juegos en los que se involucraban en ese momento.
Se observó mayor apertura, libertad y confianza para expresar sus opiniones, comparado con la evaluación pre-
test. Respecto al manejo del lenguaje, se observó que los niños y las niñas manejaban adecuadamente conceptos como
equidad y violencia y demostraban una comprensión pertinente de sus derechos, en esta etapa, fueron también las
niñas, quienes demostraron mayor madurez en la articulación de discursos y argumentos que los niños.
En términos de filiación grupal, se observó que en las actividades de cierre, los niños se agrupaban e interactuaban
de manera más horizontal entre niños y niñas, es decir, el género ya no era un criterio predominante de asociación
para el trabajo en equipo.
Otro aspecto generalizado que tiene que ver con el comportamiento de los grupos, es el cambio en el clima del
aula que se desarrolla a partir de la expectativa y del retorno del recreo, en todos los grupos, los niños estuvieron más
inquietos y desorganizados en esos momentos, y resultaba incluso para el maestro del grupo, más difícil inducirlos a
las dinámicas de las actividades didácticas que se tenían previstas, por lo que en este momento se dedicó, en general
tiempo a promover un ambiente tranquilo que permitiera establecer las condiciones necesarias para continuar con el
desarrollo del taller lúdico. También el comportamiento inquieto del grupo, en ciertos momentos, se asoció a las
condiciones físicas del aula, ya que en algunos casos el calor que hacía en las aulas dificultaba los procesos de atención
y concentración de las niñas y niños.
Conclusiones:
Sin embargo, en las actividades lúdicas libres que se organizaban al momento de la salida, se observaron juegos
bruscos entre niños y niñas, esto podría indicar que, aunque la información es necesaria y evidentemente representa
el primer paso en la educación sobre estas problemáticas, a fin de prevenirlas, no resulta, sin embargo ,suficiente para
erradicarlas como prácticas, que se dan como forma de interacción cotidiana entre niños y niñas y que involucran
distintos aspectos que pudieran identificarse como prácticas incipientes de violencia, sin embargo, para sostener esta
información, es necesario mayor evidencia y observación en distintos contextos, incluyendo como prioritario el
contexto familiar.
Se consideró pertinente identificar algunos aspectos generales del comportamiento grupal, ello aun considerando
la heterogeneidad de los diferentes grupos participantes, ya que diferían, entre otras cosas en grado y edad. Se observó,
en general, en los grupos de los que es objeto el presente trabajo un adecuado seguimiento de instrucciones y respeto
por la figura del docente. Las actividades disruptivas estaban focalizadas en uno o dos individuos, a los que en algunas
ocasiones el resto del grupo le prestaba atención por estas conductas disruptivas, pero la indisciplina no fue un factor
que se destacara como problemática distintiva en este ejercicio. La gran mayoría de los estudiantes respetaban y
acataban las instrucciones del maestro de grupo, en general se observó un adecuado manejo del aula por parte de los
docentes, quienes, además ya tenían identificados y sabían cómo tratar a los niños que desempañaban un papel de
“disrruptores” y “distractores”. También seguían las instrucciones del facilitador.
Salvo estas condiciones generales que acabamos de enfatizar, podemos considerar que el comportamiento de los
grupos, es adecuado y responde a las estructuras establecidas por los docentes y autoridades escolares, así como al
nivel de desarrollo social esperado para las edades respectivas de los participantes.
Lo significativo de este trabajo fue poder identificar el gusto por la escuela, lo cual se pudo ver en los distintos
lugares a los cuales se acudió, las niñas y niños manifiestan emoción al hablar de la escuela así como algunos lo
consideran su lugar favorito, pese a las condiciones en las cuales se encuentra la institución y a las deficiencias de
materiales y espacios.
Bibliografía.
Bauman, Zygmunt y Donskis, Leonidas (2015). Ceguera Moral. La pérdida, de sensibilidad en la modernidad líquida. Ed. Paidós. Barcelona,
España.
Bauman, Zygmunt. (2007). Identidad. Losada. España.
Badiou, Alaín (2011). Breve tratado de ontología transitoria. Gedisa. España.
Castel. Robert. (2010). La discriminación negativa. ¿Ciudadanos o Indígenas?. Ed. Hacer. España
Essomba, Miguel Ángel. (2008). 10 ideas clave. La gestión de la diversidad cultural en la escuela.
Ospina, William. (1996 ). ¿Dónde está la franja amarilla? . Colombia.
Leyva, Abel y Báez, Tomás (2012). Los ejes de la Gestión educativa de nuestro tiempo. Editorial, Lirio, México.
Martín Casares, Aurelia (2006). Antropología de Género. Culturas, Mitos y estereotipos sexuales. Cátedra PUV, Universitat de Valencia. España.
Abstracto: Este artículo ilustra la preparación de un proyecto integrador desarrollado para lograr definir el Proceso
para la Generación de Composta en el Instituto Tecnológico de Cd. Juárez. La metodología utilizada para su
desarrollo, es la presentada en el Manual de Proyectos Integradores para la formación y desarrollo de competencias
profesionales del Tecnológico Nacional de México el cual tiene como objetivo principal el de conocer y aplicar los
conocimientos curriculares de los estudiantes para el desarrollo de proyectos integradores con el fin de alcanzar el
fortalecimiento de la formación de competencias profesionales de los estudiantes.
El Proyecto es desarrollado en el área de Educación a Distancia del Instituto, en la Carrera de Ingeniería Industrial,
considerando como materia eje la Materia de Formulación y Evaluación de Proyectos.
INTRODUCCIÓN
El procedimiento sugerido para la instrumentación del proyecto integrador sigue una serie de actividades que
se dan durante el desarrollo de nueve fases, las cuales son consideradas en la estructura de este proyecto de
Generación de Composta en el ITCJ.
1
Tomás Francisco Limones Méraz, MC es Profesor de Ingeniería en el Instituto Tecnológico de Cd. Juárez, con más de 20 años
de experiencia en la Industria Manufacturera tlimones@itcj.edu.mx, (autor corresponsal).
En el ITCJ se cuenta actualmente con 5580 m2 de áreas verdes, las cuales son potencialmente generadoras de
residuos provenientes de Árboles, arbustos, plantas y césped. Los inventarios existentes actualmente de árboles,
arbustos y pinos entre otros, ascienden a un total de 747, siendo esta una cantidad considerable que provee de
materia orgánica a los suelos durante todo el año. Esta materia disponible encuentra sus picos máximos en la época
de otoño e invierno.
Actualmente los residuos son confinados al dompe de la basura teniendo como punto final el basurero
municipal. Este panorama plantea una alternativa viable de la utilización de los desperdicios que se generan en el
Platel, para ser utilizados en la generación de composta, la cual puede ser usada como abono para los propios árboles
y jardines de la Institución con la posibilidad de comercializar los excedentes de composta que se generen.
Para el desarrollo del proyecto integrador se deberá primeramente identificar los programas de asignaturas
esenciales que permitan la solución inicial al problema de contexto. El analizar la relación de competencias
específicas de las asignaturas involucradas en la solución del problema de contexto, las cuales fueron seleccionadas
inicialmente (Ayudarse de la retícula del plan de estudios).
El análisis de la relación de competencias específicas de las asignaturas involucradas en la solución del problema de
contexto, para este proyecto integrador de generación de Composta en el ITCJ se realiza considerando el perfil del
egresado (Figura 3).
RELACIÓN DE COMPETENCIAS
CARRERA: Ingeniería Industrial EAD.
PERFIL DE EGRESO
1. Analizar, diseñar y gestionar sistemas productivos desde la provisión de insumos hasta la entrega de bienes y servicios, integrándolos con efectividad.
2. Conocer, seleccionar y aplicar tecnologías de automatización para optimizar procesos productivos.
3. Diseñar, implementar y administrar sistemas de mantenimiento para eficientar la operación de las instalaciones y equipos.
4. Implementar sistemas de gestión de calidad para satisfacer los requerimientos del cliente.
5. Utilizar los instrumentos de medición de mayor aplicación para el apoyo en la certificación y/o acreditación con las normas vigentes.
6. Implementar e interpretar estrategias y métodos estadísticos en los procesos organizacionales para la mejora continua.
7. Seleccionar y adecuar modelos de calidad y diseño de experimentos en procesos organizacionales para su optimización.
8. Gestionar sistemas de seguridad, salud ocupacional y protección al medio ambiente, en industrias de producción y de servicios.
9. Identificar necesidades de su entorno y desarrollar investigación aplicada para crear o innovar bienes y/o servicios.
10. Crear y mejorar productos de alto valor agregado bajo los principios de productividad y competitividad.
11. Seleccionar e implementar tecnologías de información y comunicación dentro de la empresa.
12. Participar en proyectos de transferencia, desarrollo y adaptación de tecnologías en los sistemas productivos.
13. Diseñar, implementar y mejorar sistemas y estaciones de trabajo considerando factores ergonómicos para optimizar la producción.
14. Participar en la estandarización de operaciones para la transferencia y adaptación de los sistemas productivos.
15. Manejar y aplicar las normas y estándares en el análisis de operaciones de los sistemas de producción.
16. Emprender e incubar la creación de nuevas empresas con base tecnológica que promueva el desarrollo socioeconómico de una región, así como su constitución legal.
17. Formular, evaluar y gestionar proyectos de inversión, que le permita emprender la creación de unidades productivas de bienes y servicios bajo criterios de competitividad y sustentabilidad.
18. Tomar decisiones para la mejora de sistemas productivos y de servicios, fundamentadas en planteamientos y modelos analíticos.
El grafo muestra todas las relaciones que existen entre los nodos de asignatura, es decir, las relaciones entre las
competencias específicas de las materias. Este grafo permite ver de manera visual la administración y la forma más
recomendable de ir desarrollando las competencias específicas de las asignaturas que el estudiante adquirirá a lo
largo de su carrera para alcanzar las competencias profesionales establecidas en el perfil de egreso El análisis de la
relación de competencias específicas de las asignaturas nos dará como resultado la identificación de las materias que
aportan directamente competencias para el proyecto Integrador. Para este proyecto se tuvo como resultado las
siguientes descripciones:
La Identificación y descripción formal del proyecto son parte del portafolio de evidencias del Proyecto Integrador.
El formato utilizado para registrar este Proyecto de Generación de composta en el ITCJ es el ANEXO II sugerido en
el Manual de Proyectos Integradores para la formación y desarrollo de competencias profesionales del Tecnológico
Nacional de México.
Los formatos de registro de este proyecto se encuentran en ANEXO II en este documento donde se da detalle
de la caracterización, Competencias previas y las competencias a aplicar, un cronograma de actividades así como el
impacto esperado del proyecto.
La definición del producto o servicio que como resultado del Proyecto Integrador se deberá entregara al cliente
deberá dar una solución al problema del contexto que fue previamente definido. Es importante establecer los
subproductos que se generan en cada una de las etapas del proyecto integrador, que son representados por lo que
cada asignatura aportara como entregable.
Los formatos de registro de este proyecto se encuentran en ANEXO II en este documento donde se da detalle
de la caracterización, Competencias previas y las competencias a aplicar, un cronograma de actividades así como el
impacto esperado del proyecto (Figura 6). La distribución y aporte de las actividades que se generan por materias
son analizadas por cada asignatura con Perfil integradora, que representa el nodo que incide una gran cantidad de
entradas directas, es decir donde se relaciona una gran cantidad de competencias y representadas en ANEXO IV,
CRONOGRAMA DE ACTIVIDADES por asignaturas Integradoras.
La instrumentación del proyecto integrador se obtiene a partir de las competencias específicas establecidas en la
etapa 3 de la ficha de registro, es decir, la identificación de las competencias específicas que resuelven el problema
de contexto es de suma relevancia para instrumentar el proyecto integrador. La manera en cómo este conjunto de
competencias específicas resuelve el problema de contexto, determinan los atributos del proyecto integrador, pero al
mismo tiempo para cada una de las competencias específicas explica la aportación al proyecto integrador, explica su
importancia, explica en qué consiste y explica la relación con otras competencias específicas del proyecto integrador
(ver Figura 7).
Las actividades de aprendizaje son el conjunto de operaciones y/o tareas que el estudiante desarrollará y que
el profesor indicará, organizará, coordinará y pondrá en juego para propiciar la aplicación de la competencia
específica al proyecto integrador, y alcanzar el entregable planeado.
Las actividades de enseñanza son el conjunto de operaciones y/o tareas que el profesor llevará a cabo para
que el estudiante desarrolle, con éxito, la o las competencias genéricas y específicas aplicadas al proyecto
integrador, que se están establecidas para los entregables planeados.
Las fuentes información y apoyos didácticos son todos los recursos de bibliografía, base de datos,
plataformas educativas, videos, software, informes, tesis (Schmelkes & Schmelkes, 2010), manuales, tutoriales,
cursos, prácticas, entrevistas, foros, que son necesarios para el desarrollo y el alcance de los entregables planeados.
Las rúbricas y criterios de evaluación son los aspectos centrales (evidencias) que cumplen con las
condiciones de calidad establecidas para los entregables planeados. Estos aspectos permiten realizar una medición,
valoración y satisfacción del alcance de los entregables planeados, así como la toma de decisiones para su mejora.
Los entregables son los productos, servicios, bienes o informe que se espera de cada competencia específica y
que son parte sustancial del proyecto integrador, que conjuntado con los demás entregables de otras asignaturas son
la solución al problema de contexto.
El análisis de los entregables de cada una de las competencias específicas de las materias que formalizan las
asignaturas integradoras, de este proyecto de generación de composta en el ITCJ y en donde se relacionan una gran
cantidad de competencias (Nodo que incide una gran cantidad de entradas) se muestran en la Figura 8. El análisis
completo de cada una de estas competencias específicas se encuentra en el Anexo V
Figura 8. Entregable de cada una de las Competencias Específicas, Proyecto Generación de Composta ITCJ.
El proyecto Integrador debe de ser presentado ante los estudiantes de cada una de las asignaturas involucradas en el
desarrollo del Proyecto al inicio del Módulo. Para el caso específico de este Proyecto para la Generación de
Composta en el ITCJ, se involucró a los Maestros a cargo de las asignaturas nodo donde inciden gran cantidad de
competencias. Para la obtención de la información los Maestros generaron a su vez equipos de trabajo que dieron
seguimiento a las tareas encomendadas.
El proyecto Integrador debe de cumplir con su fase de ejecución donde se lleva a efecto el desarrollo de la
Instrumentación del Proyecto Integrador (Fase 5). El seguimiento y la retroalimentación de los avances deben de ser
analizados en forma continua, realizando la verificación de los productos y/o evidencias por etapas.
Finalmente en esta etapa se logra dar la formalización del producto, servicio o bien global que se entregara al
cliente, como resultado del proyecto Integrador. El proyecto Integrador para la generación de composta en el ITCJ
actualmente está en esta etapa, en donde los estudiantes están trabajando en los entregables al Proyecto Integrador.
La evaluación del Proyecto Integrador es una fase importante en donde se analizan y evalúan los objetivos del
proceso de desarrollo del Proyecto Integrador. De eta evaluación se podrán desprender recomendaciones y nuevas
necesidades para el proyecto integrador por parte del Cliente. El Informe final del Proyecto Integrador deberá
contener toda la Instrumentación desarrollada, generándose pues el portafolio de evidencias del Proyecto Integrador.
Esta fase aún está en proceso de desarrollo para este proyecto de Generación de composta en el ITCJ.
Finalmente, la etapa de socialización corresponde al Registro de propiedad intelectual e industrial del Proyecto
Integrador ante las Instancias correspondientes. Es importante considerar la comunicación y presentación de los
resultados acorde a los protocolos propios del instituto, cumpliendo así con la posibilidad de que la transferencia del
proyecto integrador pueda realizarse a otras Instituciones de Educación.
CONCLUCIONES
El seguimiento a los pasos indicados en este modelo, es importante para poder obtener los resultados que den
solución al problema planteado. Lo primero que se debe llevar a cabo es una aproximación y reconocimiento de la
realidad del objeto de estudio, es decir, un diagnóstico (contextualización/diagnóstico), con base a este diagnóstico
se constituye un marco referencial teórico que fundamenta el proyecto (fundamentación), posteriormente se realiza
el diseño del proyecto mediante la aplicación de cualquier método de proyectos (planeación) y se desarrollan cada
una de las actividades planeadas (ejecución) para llevar a cabo un reconocimiento de logros y aspectos a mejorar en
el (evaluación) y finalmente se lleva a cabo un diálogo, reflexión y análisis de los diversos conceptos, aplicaciones
y experiencias alcanzadas durante el proyecto integrador (socialización). Otra metodología de marco lógico puede
ser consultada en (Ortegón, Pacheco, & Prieto, 2005).
Finalmente cuando el estudiante desarrolla sus competencias a través de un proyecto, su nivel de alcance en el
desempeño de las competencias puede ser diferente, es decir, su nivel de participación puede variar. Si en esta
participación el estudiante solo se limita a ejecutar el proyecto sin la realización de sugerencias, mejoras o trabajo
colaborativo, entonces se habla de un nivel operativo; en cambio cuando propone la estructuración y construcción
de las acciones a realizar durante la ejecución del proyecto, se dice que es un nivel intermedio; y si el estudiante es
capaz de proponer un proyecto en conjunto con el profesor o de modificar uno ya existente, entonces es un nivel
estratégico (López Rodríguez, 2012).
REFERENCIAS
1. Proyectos Integradores, Segunda Edición, Tecnológico Nacional de México, Septiembre de 2014.
2. Curso-Taller, Proyectos Integradores para la formación y desarrollo de competencias profesionales del Tecnológico Nacional de México,
sesiones 1-3, 4-5.
3. Anexo I, Guía sugerida para la elaboración del portafolio del proyecto Integrador, Tecnológico Nacional de México, Septiembre de 2014.
4. Anexo II, Formato sugerido para el registro del proyecto Integrador, Tecnológico Nacional de México, Sept. de 2014.
5. Anexo III, Procedimiento sugerido para la Instrumentación del proyecto Integrador, Tecnológico Nacional de México, Septiembre de 2014.
6. Anexo IV, Propuesta para la definición de proyectos Integradores por Carrera-Academia, Tecnológico Nacional de México, Septiembre de
2014.
7. Módulo III, Proyecto de Modulo, Guía del Proyecto Integrador por semestre o conjunto de asignaturas, Tecnológico Nacional de México,
Septiembre de 2014.
8. SEMARNAT. (15 de Noviembre de 2007). INSTITUTO NACIONAL DE ECOLOGÍA. Recuperado el 21 de Mayo de 2015, de INSTITUTO
NACIONAL DE ECOLOGÍA: http://www2.inecc.gob.mx/publicaciones/libros/499/produccion.html
9. María, P. R., & M. Martínez, A. (2013). Organización de las Naciones Unidas para la Alimentación y la Agricultura Oficina Regional para
América Latina y el Caribe. En P. R. María, & A. M. Martínez, Organización de las Naciones Unidas para la Alimentación y la Agricultura
Oficina Regional para América Latina y el Caribe (pág. 2). Santiago de Chile: Fiat Panis FPA.
10. Román, P., M. Martínez, M., & Pantoja, A. (2013). MANUAL DEL COMPOSTAJE DEL AGRICULTOR. Santiago de Chile: FAO Fiat
Panis.
Resumen—La presente investigación está basada en la generación de un modelo de simulación para proponer mejoras
que lleven a reducir los tiempos de espera de los pacientes en el área de urgencias del hospital regional del Instituto
de seguridad y servicios sociales de los trabajadores del estado (ISSSTE), Culiacán. El modelo de simulación se usara
para evaluar tiempos de espera y evaluar el porcentaje de utilización de los recursos actuales. Se ha validado el
modelo comparándolo con los datos reales del sistema. Con los escenarios obtenidos se experimentó la sensibilidad
de los recursos hospitalarios (personal y equipo), en relación a la incidencia de los tiempos de espera de los pacientes.
Los resultados obtenidos se tradujeron en herramientas con base matemática para la toma de decisiones que sugieren
escenarios que potencialmente reduzcan los tiempos de espera para los pacientes y se haga un mejor uso de los
recursos hospitalarios por parte de los tomadores de decisiones.
Palabras clave—Área de emergencias, flujo de pacientes, simulación, tiempos de espera
Introducción
El Instituto de Seguridad y Servicios Sociales de los Trabajadores (ISSSTE) informó que la inversión total en sus
hospitales, en el área de urgencias, en México, ascendió a $1,716.466,350 de pesos (ISSSTE, 2016). En el estado
mexicano de Sinaloa el ISSSTE atiende al 7.7% de la población, en 2006 un 42,5% no contaba con protección de
salud y para 2012 solo 16.7% no tenía cobertura de salud, por tanto se ha incrementado la cantidad de pacientes a
atender en el estado (Instituto Nacional de Salud Pública, 2013). El ISSSTE ha hecho mejoras en su infraestructura y
ha recibido más presupuesto año con año, sin embargo esto no necesariamente ha resultado en beneficios en tiempos
de espera para los pacientes, por lo que existe aún un área de oportunidad para mejorar más.
En los años recientes muchos investigadores han abordado el hacer propuestas de mejora en el área de urgencias
en relación a los tiempos de espera de los pacientes y al uso eficiente de los recursos existentes. Los tiempos de
respuesta elevados siguen siendo un área de oportunidad de mejora para los hospitales en general (Pinet & TUM-P,
2005). De forma práctica se han propuesto escenarios donde se proponen aplicar más recursos al sistema de urgencias,
otros más donde se hace reprogramaciones del personal existente con el fin de mejorar el tiempo de espera. Además,
también, se han propuesto modificaciones de flujos de servicio y cambio estructural en la organización médica para
atender con más prontitud a los pacientes (Velásquez-Restrepo, Rodríguez-Quintero, & Jaén-Posada, 2011).
Sin embargo, teniendo estas investigaciones desde hace siete décadas y aun con la cantidad de estudios a la alza
en este tema existen retos tanto a nivel matemático para la aplicación de la simulación en los sistemas de cuidados de
la salud. Por otra parte también existen retos de la parte organizacional y de recursos humanos de los hospitales
(Lakshmix & Sivakumarx, 2013). La presente investigación aborda el problema de los tiempos de espera elevado en
el departamento de urgencia del ISSSTE mediante la simulación de su actual sistema y la posterior generación de
escenarios que propongan diversas soluciones como nuevo flujo de servicio, más recursos materiales y humano u
optimizar los existentes sin adicionales más.
Lograr simular, o imitar, un sistema de urgencias en un hospital que arroje información importante para la
toma de decisión que permita mejorar el servicio de cuidados de la salud no es sencillo. Por tal motivo, el concepto
de la aplicación de la simulación con los servicios que se prestan en un área de urgencias médicas ofrece bondades y
limitaciones para el sistema mismo y para los usuarios de los servicios prestados en esas áreas médicas. Analizar un
1
Ing. Daniel Francisco López Acosta es estudiante de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de
Culiacán, Sinaloa. elizabeth.valenzuelas@hotmail.com (autor corresponsal)
2
Dr. José Fernando Hernández Silva es Profesor de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de Culiacán,
Sinaloa. fhernandez@itculiacan.edu.mx
3
Dra. Carmen Guadalupe López Varela es Profesora de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de
Culiacán, Sinaloa. cglopez@itculiacan.edu.mx
4
M.C. Jesús Ramón Ochoa Gallegos es Profesor de la Maestría en Ingeniería Industrial en el Instituto Tecnológico de Culiacán,
Sinaloa. ochoaga@itculiacan.edu.mx
sistema de cuidados de la salud no resulta sencillo porque en parte es un sistema social, ya que trata específicamente
las enfermedades de las personas. Por tanto aquí están envueltos sentimientos, motivaciones e interacciones
emocionales (Fremonte, 1956).
La simulación de eventos discretos fue utilizada en esta investigación con el fin de identificar qué propuesta de
mejora resulta estadísticamente mejor en función de su beneficio en la reducción de los tiempos de espera de los
pacientes. La opción ideal para el sistema de inicio es optimizar los recursos existentes y mejorar de esta forma el
tiempo de espera de los pacientes. Esto se debe a que en el instituto donde se ha realizado esta investigación es
complicado modificar el flujo de trabajo o adicionar más recursos al sistema, aun que esas posibilidades no están
descartadas.
Métodos de solución
La simulación es una actividad que tiene ventajas en relación con la experimentación real. Estas son bajo costo,
velocidad de respuesta, no existen las pruebas destructivas, no entra en situaciones que son no éticas y puede abordar
situaciones futuras (Cao Abad, 2002).
Roberth E. Sharon define la simulación de la siguiente forma: “Simulación es el proceso de diseñar y desarrollar
un modelo computarizado de un sistema o proceso y conducir experimentos con este modelo con el propósito de
entender el comportamiento del sistema o evaluar varias estrategias con las cuales se puede operar el sistema” (Coss,
1996).
El método de simulación de eventos discretos tiene origen cuando el modelador considera que el sistema se
modela como un proceso, es decir una secuencia que se realiza a través de localizaciones en interacción con entidades
(XJ Technologies, 2016). Este método de simulación es muy utilizado en la manufactura y en procesos de interacción
social que pueden visualizarse con este concepto de manera natural.
La interpretación matemática del comportamiento físico de un sistema y sus lecturas para una efectiva toma
de decisiones son el fundamento de la simulación de sistemas. Esto es posible imitando el aspecto estocástico de los
eventos que se dan en la realidad. La simulación de procesos es un elemento muy importante para tomar decisiones
con base en la ciencia y con más certidumbre de efectividad (Himmelblau & Bischoff, 1992). Lograr simular, o imitar,
un sistema de urgencias en un hospital que arroja información importante para la toma de decisión que permita mejorar
el servicio de cuidados de la salud. Por tal motivo, el concepto de la aplicación de la simulación con los servicios que
se prestan en un área de urgencias médicas ofrece bondades para el sistema mismo y para los usuarios de los servicios
prestados en esas áreas médicas. Analizar un sistema de cuidados de la salud no resulta sencillo porque en parte es un
sistema social, ya que trata específicamente las enfermedades de las personas. Por tanto aquí están envueltos
sentimientos, motivaciones e interacciones emocionales (Fremonte, 1956).
Sin embargo, una adecuación matemática de los flujos de esas personas puede sin duda propiciar información
para la toma de decisión que ayuda a la solución del problema de tiempos de espera excesivos en el área de urgencias.
La simulación en su parte abstracta trata de imitar la realidad mediante diversos métodos estadísticos y matemáticos,
integrados en la actualidad en software dedicados a simular sistemas. La simulación se divide en dos grandes vertientes
con base en los fenómenos que se estén analizando. Estas son simulación de eventos continuos y simulación de eventos
discretos. Los eventos discretos son aquellos que pueden ser evaluados en un punto determinado del proceso. Para
efectos de ejemplificarlos, se puede mencionar que una línea de espera cambia cuando llega un nuevo elemento a la
fila o cuando este sale de ella, por tanto este es un evento discreto.
Los sistemas continuos son aquellos que cambian de manera continua en el tiempo el estado del sistema. Para
ejemplificarlo se puede mencionar el caso de la posición de un automóvil en marcha, esta cambia constantemente en
relación con el tiempo, por tanto este es un evento continuo.
En el caso de la simulación del flujo de pacientes en el área de urgencias la vertiente a aplicar será la de
modelos discretos, ya que los flujos de pacientes pueden ser representados por ecuaciones matemáticas que es posible
evaluar en un momento determinado del sistema. A su vez, dentro de la vertiente de modelos discretos podemos
subdividir dos modelos; aquellos que son determinísticos y probabilísticos. En el caso la tesis a desarrollar se trataran
los modelos probabilísticos para eventos discretos (Triola, 2004).
Abo-Hamad y Arisha realizaron (2012) realizaron una investigación en un hospital en Irlanda en el área de
urgencias. Allí se recogieron datos de flujo de pacientes en un área de urgencias y se generaron escenarios distintos
con el fin de encontrar combinaciones de personal que incrementaran el rendimiento en el servicio médico en esa área.
Los resultados que se obtuvieron mediante la simulación fueron escenarios que mostraban mejoras en la atención de
los pacientes relacionadas con menores tiempos de espera; esto ayuda a tener una orientación en la toma de decisión
de los departamentos por parte de los coordinadores del área. En este contexto Concha et. Al (2015) e igualmente
Ahmed y Alkhamis (2012) también han usado la simulación de eventos discretos con el fin de diseñar los espacios de
urgencias que beneficien el buen flujo de los pacientes y pasen menos tiempo en el sistema.
En Malasia Ahmad et. al (2012) investigaron como los flujos de los pacientes pueden afectar la utilización
de recursos físicos de un AU y la ocupación de los médicos en el servicio que allí brindan. En esta investigación los
escenarios generados se interpretaron de tal forma que la atención médica de triage y el uso del personal médico de
asistencia afectan el uso eficiente del recurso del departamento. También Jomon y Li (2012) pudieron identificar los
principales causantes del congestionamiento de los pacientes en el AU de un hospital en estado unidos realizando
simulación de eventos discretos usando el método de colectar e interpretar datos históricos de los registros del hospital.
Y en esta misma corriente Ferreira et al (2007) efectuó investigación con DES en la que generó escenarios
con más o menos camas en el área de recuperación post operatoria, encontrando áreas de oportunidad de mejora para
la productividad de la programación de operaciones. Igual se propuso en la investigación de Kare et al (2008)
experimentar la mejora de los servicios de urgencias agregando más camas.
En esta misma corriente Hurwitz (2014) utilizo métricas de tiempo promedio para proponer diferentes escenarios
de pacientes en un DU obteniendo resultados en sus propuestas de atención más rápida a pacientes con enfermedades
menos graves sin afectar a los pacientes con una urgencia más aguda. Por su parte Saghafian et al (2015) proponen
prácticamente el logro de los mismos resultados usando también EDS. Arreglos del sistema propuesto a partir de
escenarios generados en un modelo de simulación fueron propuestos por Al-Araidah (2012) en lo que, sin asignar
nuevos recursos y usando DES se obtuvieron reducción de tiempos de espera hasta en un 29%.
Metodología
La metodología de esta investigación fue dividida en cuatro etapas con el propósito de estructurar la recopilación
y el procesamiento de la información de tal forma que produjera los escenarios propicios para una toma de decisión.
La primera etapa consistió en entender cómo funciona el sistema real del departamento de emergencias del ISSSTE y
plasmarlo de forma gráfica usando como herramientas diagramas de flujo de los procesos. La segunda etapa abarca la
recolección de datos in situ y también la recolección de datos estadísticos históricos del hospital. La fase tres
comprende la generación del modelo de simulación y su validación. Por último la parte final aborda el tema de la
experimentación de escenarios generados y la propuesta al hospital de alguno de ellos.
La etapa uno dio como resultado gráficos de diagramas de flujo que pueden interpretarse en un modelo de
simulación básico. Esto se logró al tener una comprensión del sistema al grado necesario para el modelo de simulación
desarrollado. El modelo conceptual del modelo de simulación es también el modelo conceptual del sistema ya que lo
representa de manera lógica. Adicionalmente los diagramas de flujo fueron validados por los responsables de las áreas
de urgencias del hospital mediante una revisión conjunta de los diagramas de manera impresa y su posterior
modificación.
La etapa dos consto en la recolección de los datos que fueran necesarios para el modelo de simulación. En esta
etapa se definió el nivel de abstracción del modelo, lo que ayuda a evitar que se pierda practicidad al momento de
querer entenderlo. Identificando los tipos de datos diversos (estocásticos y determinísticos) se asignaron distribuciones
de probabilidad a aquellos que son estocásticos y se asignaron en el modelo de simulación la cantidad de recursos
disponibles en cada localización según los datos recabados.
En la etapa tres se valida a nivel programación el modelo al ejecutarlo y comprobar que no tiene errores de
programación. Después se llevó a cabo la validación al verificar que el modelo de simulación es representativo de la
realidad. Esta investigación corroboro que el modelo representaba en una medida superior al 90% la realidad del
sistema.
En la etapa cuatro se han generado diferentes escenarios que potencialmente pueden resultar en mejoras en
el sistema. En total se generaron 10 escenarios que después fueron evaluados según los resultados estadísticos del
software SIMIO y después sometidos a un análisis de diseño de experimentos para determinar con certeza cual
resultaría como una mejor opción que se acerque a la optimización del tiempo de espera de los pacientes.
Para facilitar la realización del modelo se tomaron en cuenta solo los procesos que sustancialmente
contribuyen a el hacinamiento en las colas del sistema y por tanto los largos tiempos de espera en el departamento de
urgencias. Adicionalmente el modelo estructural base se generó con la colaboración de enfermeras, médicos y
administrativos con el fin de focalizar las partes más importantes que debía contener el modelo. El modelo fue
generándose de manera iterativa hasta que se llegó a un acuerdo definitorio.
Modelo de simulación
El modelo de simulación desarrollado en SIMIO contiene las principales localizaciones y ha sido elaborado tomando
en cuenta los elementos que dan un peso específico a la simulación. Se han omitido procesos y estaciones que
complican el entendimiento del sistema al solo aportar complejidad al mismo y no información importante de su
comportamiento.
Figura 1. Captura de pantalla del modelo de simulación del departamento de urgencias realizado en SIMIO 8
Teniendo en cuenta que los procesos reales en un lugar donde se tratan asuntos urgentes difícilmente se rigen
por un protocolo de actividades lineal, el sistema de urgencias del hospital es representado según los datos de campo
recabados y estos fueron introducidos en el software SIMIO. El modelo cuenta con los siguientes elementos:
2 tipos diferentes de usuarios del sistema (Paciente normal, usuario que realiza preguntas en admisión)
3 Fuentes de llegadas al sistema (Paciente que llega desde la calle, paciente que se encuentra dentro del propio hospital
y usuarios que realizan preguntas en admisión)
13 Localizaciones (Admisión, triaje, rayos x, ultrasonido, enfermería, medico de consulta, pediatría, traumatología y
toco-cirugía)
La red se diseñó de tal manera que la programación corresponda con la realidad y esta se ha validado con el
comportamiendo de las localizaciones de triaje y medicina de consulta. Ademas de esto los datos se validarón con las
llegadas a admisión.
Figura 2. Resultados de un experimento llevado a cabo en SIMIO 8, el cual muestra una reducción de 1.76 horas en
el tiempo medio que pasa el paciente en el sistema.
Estos resultados se obtienen al agregar una persona más que atienda en admisión y un par de médicos, uno
en el servidor de triaje 1 y otro en el servidor de médico de consulta 2. La reducción es drástica y aun que en la
realidad no es una situación automática hacerse de más recursos permite tener una idea donde son las partes claves
donde se puede proponer un cambio, o al menos adicionar el recurso más sensible del sistema.
Se recomienda seguir la investigación y encontrar más puntos de sensibilidad y ejecutar experimentos con
mayor combinación de parámetros combinados que permitan identificar mejor una solución óptima. El trabajo final
se consultara con el personal administrativo de urgencias. Es evidente que los resultados beneficiaran a los pacientes
y también a la institución ya que ofrecerá servicios en el menor tiempo posible lo que elevara su calidad y valor
cualitativo ante la sociedad.
Referencias
Cao Abad, R. (2002). Introducción a la Simulación y a la Teoría de Colas. Coruña: netbiblo.
Fremonte, K. J. (1956). General Systems Theory: Applications for Organization and Management. Estados Unidos: University of Washington.
García Dunna, E., García Reyes, H., & Cárdenas Barrón, L. E. (2013). Simulación y análisis de sistemas con ProModel. México: PEARSON.
Himmelblau, D. M., & Bischoff, K. B. (1992). Análisis y simulación de procesos. México: REVERTE.
Instituto Nacional de Salud Pública. (2013). Encuesta Nacional de Salud y Nutrición 2012. Resultados por entidad federativa. Sinaloa.
Cuernavaca: Instituto Nacional de Salud Pública.
Lakshmix, C., & Sivakumarx, A. I. (2013). Application of queueing theory in health care: A literature review. Operations Research for Health
Care, 36.
Moskop, J. C., Sklar, D. P., Geiderman, J. M., Schears, R. M., & Bookman, K. J. (2008). Emergency Department Crowding, Part 1—Concept,
Causes, and Moral Consequences. Annals of Emergency Medicine, 605-611.
Pinet, L. M., & TUM-P. (Enero de 2005). Salud pública de méxico . Atención prehospitalaria de urgencias: las oportunidades del sistema de
salud, 47, 67. Maryland, Estados Unidos.
Velásquez-Restrepo, P. A., Rodríguez-Quintero, A. K., & Jaén-Posada, S. J. (2011). Quantitative methodology for emergency service
optimization: a review of past literature. Gerenc. Polit. Salud, 199-200.
XJ Technologies. (2 de Enero de 2016). Simulation Modeling with AnyLogic: Agent Based, Discrete Event and System Dynamics Methods.
Recuperado el 2016, de http://www.anylogic.com/: http://www.xjtek.com/files/book/The_three_methods_in_simulation_modeling.pdf
Resumen— Se presenta en esta investigación aplicada, el control digital de producción de hidrógeno de una celda seca
comercial, mediante un controlador proporcional (P) basado en el microcontrolador ATMEGA328P y el Software de
Instrumentación Virtual (NI LabVIEW). El diseño del regulador digital proporcional está basado en el método del lugar
geométrico de las raíces. La función de transferencia de energía (TF) del sistema está aproximada mediante mediciones
experimentales y modelos de simulación (MATLAB). El desempeño del controlador es validado a través de resultados por
simulación y experimentales. El principal aporte en este trabajo es la construcción de un módulo didáctico para prácticas
relacionadas a control digital y/o analógico, aplicado a una celda de producción de hidrógeno, favoreciendo como material
didáctico auxiliar a materias como; Energías Renovables, Control Automático e Instrumentación Virtual del plan de
estudios de Mecatrónica y Energías Renovables de la Universidad Tecnológica de Chihuahua.
Palabras clave— Módulo Didáctico, Control Digital P, Celda Seca de Hidrógeno, Función de Transferencia,
Instrumentación Virtual.
Introducción
La capacidad energética instalada en México para finales de 2014 se registró en 65,451.8 MW, figurando el Gas
Natural (55%), Carbón (13%) y el Combustóleo (10%) como principales fuentes de energía de combustible fósil
para satisfacer la Red Nacional, que al ser utilizadas para producir energía eléctrica desprenden fuertes cantidades de
un gas incoloro e inoloro llamado Dióxido de Carbono (CO2) representando un fuerte impacto en el cambio
climático (SENER 2015). Actualmente se realizan esfuerzos para explorar nuevas formas de energía que puedan
reemplazar los combustibles fósiles, como ejemplo, se lista el Hidrógeno (H2), gas que puede generarse a partir de la
biomasa, agua, entre otros (Rivera 2014). El Hidrógeno es el tercer elemento más común en la tierra después del
oxígeno y el silicio, lo que lo convierte en una fuente de energía prometedora para el futuro, el inconveniente que
presenta es que debe ser producido ya que no se encuentra de manera natural (Velásquez y Quiceno 2013). Los
métodos para la producción de Hidrógeno van desde el reformado a vapor de agua, gasificación, energía termal,
electrolisis a alta temperatura, biofotólisis hasta la electrolisis, siendo este último, el método empleado en el presente
trabajo, el cual consiste en separar agua (H2O) en gas oxigeno (O2) e Hidrógeno (H2) mediante la aplicación de
corriente eléctrica a dos electrodos (de metal inerte como el platino o el acero inoxidable) sumergidos en agua como
electrolito, uno cargado negativamente (Cátodo) y el otro positivamente (Ánodo), el cual atrae a los iones negativos
dando lugar a la aparición de O2 y el Cátodo atrae a los electrones positivos dando aparición al H2. Existen dos tipos
de celdas para realizar la electrolisis, Celda Húmeda o Sumergible y Celda Seca, con eficiencias desde un 65 % al
85 % y un costo de entre 2.40 a 3.60 Dólares por Kilogramo de Hidrógeno producido (García 2013).
El tema de eficiencia es donde los investigadores han aportado grandes contribuciones, como lo fue para los
investigadores Gu Deying y Lui, que presentaron un sistema de control de producción de Hidrógeno por electrolisis
basado en el control de la corriente mediante un controlador digital Proporcional Integral (PI) y Rectificador de
Controlado, donde las constantes de control de ganancia proporcional (KP) e integral (KI) pueden ser seleccionadas
en tiempo real a través de lógica difusa, tomando en cuenta los valores de temperatura, conductividad y presión
ejercida por el electrolito, valores que están relacionados directamente con la eficiencia, como ejemplo; 1oC de
aumento de temperatura resulta en una reducción promedio del 0.25 % en el voltaje aplicado a la celda, por la tanto
un incremento de corriente, además, que el electrolito podría vaporizarse, dando lugar a la corrosión, es por esta
razón que Gu Deying y Liu proponen un sistema de control de corriente que mantenga la temperatura del electrolito
1
M.C. David Ricardo López Flores es Profesor de la Universidad Tecnológica de Chihuahua, México. dlopez@utch.edu.mx
2
M.C. Karla María Ronquillo es Profesora de la Universidad Tecnológica de Chihuahua, México. kronquillo@utch.edu.mx
3
M.C. Roberto Herrera Salcedo es Profesor de la Universidad Tecnológica de Chihuahua, México. rherrera@utch.edu.mx
4
M.C. Milton Joel Batres Márquez es Profesor de la Universidad Tecnológica de Chihuahua, México. mbatres@utch.edu.mx
5
Ing. Víctor García Pérez es egresado de la Universidad Tecnológica de Chihuahua, México. biktor_z@hotmail.com
entre 65oC y 85oC (Gu Deying y Liu 2012). Kary Thanapalan, propuso un sistema en simulación de producción de
Hidrógeno mediante electrólisis para un automóvil, propiciando el uso eficiente del combustible al utilizar la energía
oscilatoria de una suspensión habilitada para generar corriente eléctrica a partir de las oscilaciones, misma que es
empleada en una celda de electrolisis para producir H2 y ser combinado con el combustible (Kary et al. 2011).
Pachauri y Chauhan. presentaron el diseño y simulación de dos sistemas independientes basados en energías
renovables (celda de combustible y celdas solares) para generación de H 2 a través de electrolisis empleando como
estructuras para el acondicionamiento de potencia Convertidores de Corriente Directa a Corriente Directa (CD-CD)
y Corriente Directa a Corriente Alterna (CD-CA), su aportación principal, fue lograr que el diseño a base de celdas
de combustible empleara el excedente H2 para ser almacenado y ser de nuevo útil en la producción de H2, en el caso
de las celdas solares la energía producida por el arreglo es suministrada al proceso de electrolisis, en ambos
sistemas el gas es inyectado a dos compresores independientes, que son energizados por la celda de combustible y el
sistema fotovoltaico respectivamente, la trasferencia optima de energía en ambos procesos se logró con algoritmos
de Seguimiento del Máximo Punto de Potencia (MPPT, Maximun Power Point Tracking por sus siglas en inglés)
basados en Redes Neuronales Artificiales (ANN, Artificial Neural Network por sus siglas en inglés), los resultados
se presentaron en Matlab/Simulink (Pachauri y Chauhan 2014).
De acuerdo con el estado de la técnica, es notorio que un sistema de generación de H2 a base de electrolisis
(O´Brien et al. 2005 y Jiang et al. 2012), emplean Convertidores de Potencia CD-CD y/o CD-CA para el
acondicionamiento de energía que se suministra al electrolizador Húmedo o Seco (Nabil et al. 2014), regulados por
técnicas de control como; PI, ANN y Lógica Difusa para optimizar el proceso de producción del gas H2. Utilizando
como variables de entrada la presión, temperatura, conductividad, entre otras, con la finalidad de que el controlador
realice los ajustes necesarios en tiempo real y obtener eficiencias los más cercanas al 85 % (Montoya et al. 2013 y
Bashi et al. 2003). El presente proyecto, aporta el diseño e implementación de un módulo didáctico de prácticas para
la producción de H2 a base de electrolisis por Celda Seca (figura 1), que a diferencia de las investigaciones
consultadas, utiliza en la etapa de estructura de potencia un Convertidor CD-CD sin inductor y capacitor como
suavizante de corriente y voltaje, la señal de control se ajusta mediante la Modulación de Ancho de Pulso (PWM,
Pulse Width Modulation por sus siglas en inglés) en tiempo real, a través de un controlador digital proporcional
basado en el ATMEGA328P, utilizando como variable de retroalimentación la cantidad de producción de H2 en
partes por millón (ppm, sensor MQ-2) almacenada en un tanque. Además, el sistema cuenta con una interfaz de
usuario (HMI, Human Machine Interface por sus siglas en inglés) basado en LabVIEW, con capacidad de monitorear
y ajustar los parámetros del punto de consigna y de control, para un controlador P, PI y/o Proporcional Integral
Derivativo (PID). Además, se habilita la alternativa de interactuar con controladores en el tiempo continuo basado
en arquitecturas de amplificadores operacionales y componentes discretos.
%D
+12 V 10 A ppm H2
Control Control
ó Sensor de H2
OPAMP Continuo Digital Fuente
0V–5V
0V 4V
100 ppm 10000 ppm
Para la validar el desempeñó y operación del módulo didáctico de producción de Hidrógeno se presenta en la
siguiente sección el análisis, diseño, simulación e implementación de un controlador digital P, así como su
arquitectura de control.
Lectura
b(k)
Resolucion B(s) Sensor MQ-2
5mV b(t)
A/D H(s)
0–4V 0–4V 100 - 10000 ppm
b(k)
CH4: b(t)
Sensor
CH2: u’(t)
H(z)
Figura 3. Diagrama de bloques del control digital P. Figura 4. Curva experimental de b(t) ante un escalón.
El diseño del controlador C(z) se basa en el método del lugar geométrico de las raíces (LGR), obligando a
representar el sistema de control de la figura 2 en el dominio de la Transformada Z (ver figura 3) y obtener las
funciones de transferencia de cada bloque.
H2 (tanque cerrado), se puede observar en la respuesta una pendiente con un cambio de 4 V por cada 600 S (6.66
mV/S), por lo tanto el sistema tiene la forma de Ec. 1 y al aplicarle la TL resulta un sistema con dos polos (Ec. 2) en
el origen (s1 = 0- y s2 = 0+), siendo inestable debido a s2 por estar ubicado en el semiplano derecho del plano
complejo, es decir, si u´(t) se mantiene constante por un tiempo indefinido los niveles de H2 seguirán
incrementándose hasta que la presión ejercida por este sea tal que el tanque no pueda resistirla, sin embargo, el
sensor de Hidrógeno presenta una saturación a los 10,000 ppm es por esta razón que la curva en b(t) registra el
máximo nivel en 4V.
Desde que el sensor presenta una ganancia (Ks) de 4 V / 10,000 ppm = 0.4 mV/ppm, podemos retroceder hasta
Y(s) dividiendo a B(s) entre 0.4 mV/ppm (Ec. 3), de igual manera, al aplicar la TL al escalón u´(t) y dividir a Y(s) entre
U’(s) resulta la función de transferencia G(s) (Ec. 4).
𝑌(𝑠) = 𝐵(𝑠) ⁄𝐾𝑠 = 16.65⁄𝑠 2 (Ec. 3) 𝐺(𝑠) = 𝑌(𝑠) ⁄𝑈´(𝑠) = 5.55⁄𝑠 (Ec. 4)
La TF del Sensor (Ec. 5), Convertidor A/D (Ec. 6) y Driver PWM (Ec. 7) se obtiene por la relación de TF =
Salida/Entrada, y para el caso de la función de ZOH(s) (Ec. 8) esta data por un polo en el origen y la exponencial en
función al tiempo de muestreo de T = 1 Seg (López et al. 2009).
𝐻(𝑠) = 𝐵(𝑠) ⁄𝑌𝑠 = 0.4 𝑚𝑉/𝑝𝑝𝑚 (Ec. 5) 𝐴/𝐷(𝑠) = 4 𝑉⁄𝐵(𝑠) = 1 𝑉/𝑉 (Ec. 6)
𝐴(𝑠) = 𝑈´(𝑠) ⁄𝑈(𝑠) = 0.03896 𝐴/𝐷𝑑 (Ec. 7) 𝑍𝑂𝐻(𝑠) = (1 − 𝑒 𝑇𝑠 )⁄𝑠 = (1 − 𝑒 𝑠 )⁄𝑠 (Ec. 8)
Para el diseño del controlador digital C(z) por el método del lugar geométrico de las raíces se aplica la TZ a las
funciones ZOH(s), A(s) y G(s) (Ec. 9), además ZOH(s), A(s) y G(s), con H(s) y A/D(s) (Ec. 10)
-1 -0.5 0 0.5 1
Eje Real (seconds-1)
Aplicando el concepto de lazo cerrado al diagrama de bloques de la figura 3, se obtiene la TF entre y(k) y r(k) (Ec.
11), la cual nos brinda la información necesaria para determinar los rangos de KP en que el sistema es estable, esto,
mediante la ecuación característica (Ec 12).
De acuerdo con la Ec. 12 el polo puede variar desde z = +1 hasta z = -1 para conseguir que el sistema sea
estable, al sustituir los valores límites de z en la ecuación característica podemos obtener los rango de KP que se
sitúan desde 0 hasta 23,148.14, respectivamente. Cualquier valor de KP fuera del rango, el polo quedaría ubicado
fuera del círculo unitario de estabilidad del plano complejo z. Para la validación del controlador se elige una KP =
50, debido a que la señal de control u(k) no puede ser mayor a 255d, que equivale al 100 % del ciclo de trabajo del
PWM. En la figura 5 y 6 se puede apreciar el esquema a bloques de simulación en Simulink tanto como el polo
ubicado en el plano z, en el cual se observa que está dentro del círculo unitario de estabilidad.
La respuesta en b(k) ante un escalón de 8,750 ppm (r(k) = 3.5 V) se puede apreciar en la figura 7, en la cual se
observa que es similar a la respuesta experimental en b(t) (ver figura 8) para las mismas condiciones de simulación,
sin embargo, podemos apreciar que existe una diferencia de 600 S (debido a voltaje inicial del sensor de 1.6V) para
que el valor final de y(k) reflejado en el voltaje del sensor b(t) alcance a r(k). Dado que el valor deseado alcanza el
valor de referencia, podemos decir que el modelo del sistema y simulación quedan corroborados y validados con los
resultados experimentales. En la figura 9, 10 y 11 podemos apreciar la respuesta en u(k) la cual no sobrepasa el
máximo ciclo de trabajo en el arranque, el módulo didáctico y por último la interfaz HMI desarrollada en LabVIEW,
respectivamente.
b(t)
b(k)
Segundos
Figura 7. Simulación de b(k) con KP = 50. Figura 8. Curva Experimental de b(t) KP = 50.
u(k)
Segundos
Figura 9. Simulación de u(t) con KP = 50. Figura 10. Módulo Didáctico de H2.
Comentarios Finales
Conclusiones Recomendaciones
Se presentó en esta investigación el diseño y construcción de un módulo didáctico de producción de H2 a base de
una celda seca, además, del análisis, diseño, simulación e implementación de un controlador digital P en el módulo.
Los resultados de simulación y experimentales fueron aproximados, debido a que el sensor de H2 presento un voltaje
inicial de 1.6 V. El método para diseñar el controlador se basó en el lugar geométrico de las raíces. Una interfaz
desarrollada en LabVIEW fue probada con éxito, en la cual se pueden establecer parámetros del controlador tales
como r(k), KP, KI y KD.
Recomendaciones
Se sugiere como trabajo futuro solucionar el problema del voltaje inicial del sensor, de otra forma los resultados
por simulación seguirán presentando diferencias con los resultados experimentales referenciados al tiempo de
respuesta, provocando confusiones en la validación de los modelos. Sin embargo, el módulo presento buen
desempeño en cuanto al valor final de la respuesta y el valor de referencia establecido por usuario.
Referencias
SENER. “Prospectiva del sector eléctrico,” Secretaría de Energía, consultada por Internet el 15/02/2016, Sitio web:
https://www.gob.mx/cms/uploads/attachment/file/44328/Prospectiva_del_Sector_Electrico.pdf.
Rivera Á. “Generación de hidrógeno en una celda de electrólisis microbiana alimentada con ácidos grasos volátiles,” Universidad Nacional
Autónoma de México, consultada por Internet el 15/02/2016, Sitio web:
http://www.ptolomeo.unam.mx:8080/xmlui/bitstream/handle/132.248.52.100/6964/Tesis.pdf?sequence=1.
Velásquez P. y Quiceno C. “Diseño de un sistema de generación de hidrógeno por electrólisis,” Universidad Tecnológica de Pereira, consultada
por Internet el 15/02/2016, Sitio web: http://repositorio.utp.edu.co/dspace/bitstream/11059/3655/1/62143V434.pdf.
García M. “Diseño y construcción de electrolizador de agua para la obtención de oxiHidrógeno como gas combustible,” Instituto Politécnico
Nacional, consultada por Internet el 15/02/2016, Sitio web: http://tesis.ipn.mx/xmlui/bitstream/handle/123456789/11800/14.pdf?sequence=1.
Gu deying y Liu yingying. “Control of hydrogen production by water electrolysis based on self-turning fuzzy-PI,” Control and Decision
Conference (CCDC), Páginas: 1719 – 1721, 2012.
Kary Thanapalan, Fan Zhang, Jon Maddy, Giuliano Premier y Alan Guwy. “Design and implementation of on-board hydrogen production and
storage system for hydrogen fuel cell vehicles,” Intelligent Control and Information Processing (ICICIP), Páginas: 484 - 488, 2011.
Pachauri, R.K. y Chauhan, Y.K. “Hydrogen generation/pressure enhancement using FC and ANN based MPPT assisted PV system,”
Computational Intelligence on Power, Páginas: 427 - 432, 2014.
O’Brien, C. M. Stoots, J. S. Herring y J. Hartvigsen “Hydrogen production performance of a 10-cell planar solid-oxide electrolysis stack,”
Journal of Fuel Cell Science and Technology, Vol. 3, No. 2, Páginas: 213-219, 2005.
Jiang, Y.K. Wu, T. Yang, F.Y. Yu, W. Wang y Seiji Hashimoto. “Identification and power electronic module design of a solar powered hydrogen
electrolyzer,” Power and Energy Engineering Conference (APPEEC), Páginas: 1 - 4, 2012.
Nabil Tlili, Bechir Neily y Fatma Ben Salem. “Modeling and simulation of hybrid system coupling a photovoltaic generator, a PEM fuel cell
and an electrolyzer (Part I),” Systems, Signals & Devices (SSD), Páginas: 1 - 8, 2014.
Montoya G. y Reyes P. “Optimización de una celda combustible de hidrógeno,” Scientia et Technica, Vol. 18, No 1, 2013.
Bashi, N. F. Mailah y M.Y.Yusof. “Production of hydrogen using photovoltaic electrolysis,” Student Conference on Research and Development
(SCOReB), Páginas: 282 - 285, 2003.
López F.; Herrera S.; Pineda G.; Mayra J. y Duarte M. “Regulación del caudal en un sistema de bombeo de agua (RCSBA),” Congreso
Internacional de Ingeniería en Electrónica (ELECTRO), Páginas: 327 - 334, 2011.
López F.; Herrera S.; Martha L.; Pineda G. y Terronez O. “Análisis, diseño e implementación del control digital en el convertidor puente
completo con doblador de corriente en corrimiento de fase (PSFBC) para aplicaciones industriales de galvanoplastia (electro - plating),”
Congreso Internacional de Ingenieria en Electronica (ELECTRO), Páginas: 214 - 221, 2009.
Resumen— Las formas de organización de las empresas han cambiado hoy en día por las demandas de los
consumidores, provocando con ello la necesidad de transición hacia las sociedades del conocimiento las cuales
motivan a definir una mayor flexibilidad en las estructuras y procesos organizacionales para responder con nuevos
productos y tecnologías a un ámbito cambiante. La presente investigación tiene como propósito analizar el Modelo
de Distritos Industriales, como una estrategia hacia la competitividad.
Palabras clave— Distritos Industriales, Competitividad, Pyme.
Introducción
La Pequeña y Mediana Empresa (PYME) desempeñan un papel importante en el desarrollo económico en
México, ya que son las que proporcionan el 99.9% de empleo y en su mayoría se encuentran establecidas en el
territorio en el que se encuentran, su crecimiento y competitividad fortalece al desarrollo de los recursos humanos y
del entorno, fungiendo como motor de la economía nacional, es por ello que las políticas de los estados se
encaminan a dar mayor valor agregado a este tipo de empresas. Una opción es analizar las experiencias exitosas de
otros países que puedan contribuir a crear o modificar acciones que generen el desarrollo exitoso de la PYME como
es el caso de Italia, Gran Bretaña y Alemania, los cuales pusieron de relieve las potencialidades y ventajas
competitivas de formas novedosas de organización económica basadas en la construcción de redes de colaboración
interempresarial, desde la perspectiva del nuevo contexto económico-social identificado por la globalización de los
mercados y la diversidad de la demanda.
El reflexionar sobre la relación que existe entre el territorio y la localización industrial, analizando de manera
breve los factores de producción y los espacios que han convertido a los territorios en zonas para la inversión son
elementos indispensables para guiar tres de las investigaciones que se llevan a cabo en la Maestría en Ingeniería del
Instituto Tecnológico de Querétaro en la línea de Sistemas de Gestión Empresarial e Innovación.
Descripción del Método
La necesidad de complementar el análisis de una de las grandes tendencias estructurales que se asocia a las
diferentes propuestas observables a escala local, demanda analizar el Modelo desde su base teórica para identificar
los componentes de reflexión y comprensión que pongan de manifiesto los posibles indicadores para cada proyecto.
El método utilizado para este proyecto es el de investigación documental, con un diseño descriptivo sobre los
componentes y experiencias aplicadas del modelo de distritos industriales, que permitan identificar indicadores para
su replicación en diferentes proyectos. Para esto se retoman documentos de autores clásicos reconocidos por su
expertis en estos temas.
Antecedentes
En la actualidad el gobierno Mexicano ha lanzado programas para impulsar la competitividad de sus empresas
con el fin de generar empleo estable y sostenible, con la convicción de lograr mejores niveles de bienestar para todos
sus ciudadanos, sin embargo entender la necesidad de capacidad de desarrollo local y sus políticas activas
sustentadas sobre los recursos endógenos, las capacidades territoriales y el territorio como una unidad económica
completa no es nada fácil, el nuevo escenario global ha provocado que las pymes busquen sobrevivir integrando
nuevas estrategias para enfrentar los desafíos y oportunidades del desarrollo económico, impulsadas por alcanzar
niveles de competitividad ante los patrones tecnológicos y organizativos que empresas de gran tamaño han ido
integrando para fortalecerse así mismas. Diversos autores señalan que las grandes concentraciones territoriales de
empresas vinculadas a alguna actividad industrial crean factores competitivos, lo que les dan la posibilidad a las
1
M.I.E. María Teresa López Ostria. Profesor investigador de la División de Estudios de Posgrado e Investigación del Instituto
Tecnológico de Querétaro; tostria11@gmail.com (autor corresponsal)
2
M.C. Alicia Prieto Uscanga. Profesor investigador de la División de Estudios de Posgrado e Investigación del Instituto
Tecnológico de Querétaro. aly_1606@yahoo.com
3
Lic. Alma Luz Ramírez Hernández. Docente del Departamento de Ciencias Económico Administrativas del Instituto
Tecnológico de Querétaro. alramirez.76@hotmail.com
4
Dra. Gloria Arroyo Jiménez, Profesor Investigador de la División de Estudios de Posgrado e Investigación del Instituto
Tecnológico de Querétaro, garroyo@mail.itq.edu.mx; glo_arroyo@hotmail.com
pymes de mantenerse en el mercado, estas concentraciones pueden denominarse de varias formas tales como;
sistemas productivos locales, clúster industriales o distritos industriales, siendo este último el motivo de estudio.
Se tiene referencia de que los Distritos Industriales se concibieron en Italia en donde el desplazamiento de la
actividad manufacturera hacia nuevos territorios, la fragmentación de los mercados y el cambio de los gustos de los
consumidores puso en crisis al modelo tradicional en el que solo se tenía como objetivo la producción en masa o en
serie; a inicios de los años 60s la gran expansión hace que se vuelvan a buscar condiciones que favorecieran su
desarrollo económico, buscando nuevos productos y servicios más diferenciados y personalizados que aportaran
sensaciones nuevas y prestigio social, lo que dio apertura a los Distritos Industriales (Sanchez, 2008).
Marco Teórico
El concepto de Distrito Industrial se origina con Alfred Marshall en su libro En The principles of Economics
(1890) en esta propuesta el autor discute el concepto y las características definidas como “concentraciones de
sectores especializados en una localidad específica” la propuesta concibe que un sector local puede desarrollarse a
través de la unión entre productividad, crecimiento e innovación, en el que los participantes comparten una serie de
valores y creencias y en las que se crean una serie de instituciones locales que formulan las actividades que lleven a
desarrollarlas, considerando fortalecer el impulso y la cooperación entre las empresas (Parra Requena, 2008). De
este modo, grupos de empresas localizadas en una misma área geográfica se benefician de las mismas ventajas
presentes en las grandes empresas, buscando el crecimiento de la fuerza de trabajo necesaria para la producción y
para los proveedores. G. Becattini, en su obra “Reflexiones sobre los Distritos Industriales de Marshall” utiliza el
nombre de “Aglomeración” y afirma que es importante que las empresas se integren a una población local, en donde
la cultura valores y normas sociales son adaptadas por un proceso de industrialización desde abajo, en el que las
percepciones empresariales deberán integrarse a la comunidad.
Marshall fundamenta que la organización productiva se combina en tres formas de organización a saber: la
empresa individual, los grupos de empresas en actividades similares y los grupos de empresas en actividades
diferentes, lo que se conceptualiza a los distritos como hiper-redes regionales.
La empresa individual.- constituye un sistema para la creación y aplicación del conocimiento, lo que
consigue mediante el desarrollo y, ocasionalmente, la modificación, de formas de organización que
permite la coordinación de un conjunto de actividades especializadas. Por lo general se asocia al dueño
de la misma empresa y decide a libre albedrío las operaciones que en esta se realicen ya que una vez que
estos conocimientos se dominan y pasan a ser actividades automáticas y es posible la inserción de
nuevas formas de combinar procedimientos.
Los grupos de empresas en actividades similares.- estas constituyen una fuente de progreso ya que
existe una tendencia a la variedad y acelera la experimentación en la búsqueda de novedades y la
creación de conocimiento, potenciando la propensión humana y seguir mejores prácticas creado con
ello más conocimiento, así como la generación de economías externas, a través de la comunicación de
ese conocimiento.
Las empresas con diferentes actividades.- requieren de una creciente subdivisión de funciones, la cual
puede ser de dos tipos:
o La que se deriva de una actividad que produce un conjunto estandarizado de bienes o servicios
que pueden ser usados por múltiples actividades, (no son necesarias las relaciones estrechas)
o La otra la que se crea cuando las actividades sirven para producir bienes o servicios que están
estrechamente relacionados mediante requerimientos específicos, y que pueden estar
relacionadas en su caso las relaciones son continúas.
Derivado de lo anterior Blaccutt, (2010) en su libro “La Teoría de los Distritos Industriales” manifiesta la
importancia de realizar un análisis de las economías internas y externas a las que Marshall hace alusión a saber:
Economía Interna.- son aquellas que “dependen de los recursos individuales de la empresa en su
organización y de la eficiencia de su gestión”, se distinguen por la mecanización e innovación
tecnológica simplificando con ello el proceso productivo a través de la subdivisión del trabajo y la
especialización de la función gerencial, lo que hace que puedan tener beneficios hacia la propia empresa
haciendo que se fortalezcan y se asocien a grandes consorcios,
Economía externa.- son las que “dependen del desarrollo general del sector”, esta interacción genera
una atmósfera de conocimientos y procesos industriales conocida como atmósfera industrial
marshalliana (Sánchez, 2007).
Las economías externas, por su naturaleza se analizan por la diversidad de sus alcances e implicaciones
empresariales reclasificándolas en estáticas y dinámicas.
Entre las estáticas están las de localización (acceso a recursos productivos y mercados) y las de
urbanización (relacionada con la demanda de bienes intermedios y servicios a las empresas).
Las dinámicas, a su vez, se clasifican en tres tipos según la eficiencia y capacidad de crecimiento de las
empresas:
o Intraindustriales. Cuando la producción se genera dentro de una misma rama de actividad;
o Interindustriales. Cuando la producción se origina en distintas ramas; y
o De especialización competitiva, cuando surgen de la competencia entre las empresas locales y
acelera la imitación y aparición de ideas innovadoras.
Queda claro entonces que a través de las interacciones que puedan tener las empresas, se disfrute de una serie de
ventajas que si estuviesen aisladas; diversos estudios señalan que las concentraciones territoriales de empresas
vinculadas a una determinada actividad industrial, crean y favorecen sus factores competitivos. (Leal, 2008) La
cooperación empresarial ha tenido que adaptarse a los retos que la intensificación que la competencia exige como
nuevas estrategias que permitan alcanzar los niveles de efectividad para mantenerse en el mercado, tradicionalmente
los factores tomados en cuenta para la cooperación empresarial se refieren a la evolución tecnológica y el cambio en
la demanda como la internacionalización de la economía; la competitividad depende en gran medida de los Recursos
Humanos debido a que sus conocimientos profesionales, disposición al aprendizaje, adaptación a los procesos de
cambio, etc., mismos que han modificado los comportamientos, intensificando la búsqueda de satisfactores que
garanticen la continuidad de la tradición industrial. Actualmente el ser competitivo obliga a ser flexibles al cambio y
a la disposición de cooperación en términos de trabajo en red, integración entre empresas, contribución entre
organizaciones e instituciones, mismas que se pueden ver identificadas en los Distritos Industriales en las que las
pequeñas y medianas empresas por su proximidad local a través de la cooperación se convierten en un requisito
indispensable para competir en los mercados del siglo XXI (Camisón, 1996).
Se ha identificado una nueva visión de las diferentes relaciones que pueden existir entre las empresas que se
encuentran en plena competición, por lo que Bengtsson y Koch (1999) señalan cuatro tipos diferentes de relaciones
en el contexto industrial:
Competencia.- interpretada como el comportamiento individual de las empresas hacia otras que operan
en el mismo mercado, en este contexto las acciones realizadas para mantener a posición de las empresas
se torna un poco conflictiva debido a que los intereses de cada una de ellas no pueden ser cumplidas al
mismo tiempo, provocando rivalidad y poco intercambio de información y actividades sociales.
Coexistencia.- los competidores poco se esfuerzan por mantener una interacción ya que solo se
preocupan por mantenerse informados por lo que hacen las otras empresas y no existen desafíos ni
intercambios económicos, solo se identifican como complementarios o como cadena productiva, el
problema de este tipo de relaciones es que dejan de ser permanentes cuando la posición de determinados
competidores potenciales entra en conflicto.
Cooperación.- Se desarrollan a través de un interés compartido para trabajar de manera conjunta hacia
un mimo fin o una meta en común, los intercambios pueden ser legales, económicos, de información y
conocimiento, e incluso de tipo social; estas pueden ser de carácter formal a través de alianzas
estratégicas, y de carácter informal en donde la confianza y el interés mutuo es su principal
Coopetición.- los empresarios actúan bajo el enfoque de las diferentes interacciones de cooperación y
competencia, de tal modo que la cooperación genera acceso a recursos externos, tales como know-how
o fondos financieros, mientras que en la competitiva están forzadas a generar una ventaja competitiva
incluyendo los beneficios e inconvenientes de la cooperación y la competencia. Este tipo de relación
que permite que las empresas puedan asociarse y establecer acuerdos con el propósito de asegurar que la
competencia no se vuelva desleal, o en su caso para permitir a un grupo de Pymes competir en un
mercado abierto con un empresas de mayor tamaño, buscando con ello superar obstáculos que de forma
individual no serían capaces de vencer.
Las empresas al cooperar construyen un modelo de relación interno y externo indispensable; se han registrado
aplicaciones de este concepto, tal es el caso propuesto por el Modelo italiano en el que distingue como elementos
fundamentales en un distrito industrial a: la presencia de pymes dotadas de gran dinamismo, pertenecientes al mismo
sector industrial y concentradas territorialmente, las fuertes relaciones tanto de cooperación como de competencia
entre ellas, elevados niveles de flexibilidad productiva y mano de obra relativamente abundante y especializada, y
por otro lado las relaciones interpersonales, la cohesión social y las interrelaciones entre empresas, que favorecen un
aceptable clima industrial, de confianza y de cooperación indispensable para conseguir la eficacia del sistema
productivo. (Tremblay, 1997) El modelo busca la reflexión de las relaciones colaborativas entre empresas, sistemas
productivos, sistemas socionstitucionales, movilidad de trabajadores en la aglomeración de la producción y el piel de
las instituciones que intervienen directamente en el sustento del desarrollo y crecimiento de la empresa, buscando la
creación de centros tecnológicos, centros de servicios especializados que apoyen a la empresa, centros de formación
profesional y agencias para el desarrollo local (Sanchez, 2008).
Teoría de la Localización Geográfica y Económica Esta teoría trata de explicar por qué las actividades
suelen concentrarse en ciertas áreas y no se distribuyen en forma aleatoria. La dependencia mutua de la materia
prima, el producto procesado y los subproductos La importancia del costo de transporte en el costo final Los
aspectos críticos para la localización.
Teoría de los Encadenamientos hacia atrás y hacia adelante Esta teoría procura mostrar cómo y cuándo la
producción de un sector es suficiente para satisfacer la escala mínima, para hacer atractiva la inversión en otro sector
que éste abastece (encadenamiento hacia atrás) o procesa (hacia delante).
Teoría de la Interacción La Teoría de la interacción explica las condiciones más propicias para que haya
“aprendizaje basado en la interacción” generar derrames tecnológicos y economías externas y de escala aceleran la
difusión del conocimiento y la innovación.
El Modelo de Michael Porter Este modelo, plantea que la diversidad e intensidad de las relaciones
funcionales entre empresas Se destacan cuatro aspectos básicos en el clima de negocios que determinan las ventajas
competitivas de las empresas.
Las Referidas a los Recursos Naturales Esta teoría explica el desarrollo económico a partir de los impulsos
provenientes de la exportación de sus distintos recursos naturales y a las inversiones en actividades relacionadas que
ellos activan.
Las Referidas al Sustrato Común “la competitividad de las empresa es potenciada por la competitividad del
conjunto de empresas y actividades que conforman el complejo al cual pertenecen” “empresas y actividades se
refuerzan mutuamente” “la fuerte competencia de precio, calidad y variedad da lugar a nuevos negocios, fortalece la
rivalidad entre empresas y contribuye a mantener la diversidad”
La particular combinación de competencia y cooperación a través de una red de relaciones entre las empresas y
las organizaciones son consideradas de gran oportunidad para el desarrollo y difusión de un nuevo conocimiento y
tiene una gran implicación en la innovación y en el desarrollo regional (Staber, 2001), los aspectos de cooperación
entre las empresas ayudan a minimizar las desventajas de su pequeño tamaño, contribuyendo a la integración del
sistema y los aspectos competitivos les conceden el dinamismo y la flexibilidad que no tienen en muchos de los
casos las empresas de gran tamaño.
Referencias
Astros, I. J. (2013). Competitivida y clusters productivos. Monografias.com.
Blaccutt, M. M. (2010). La teoría de los Distritos Industriales un Manual para la teoría en acción. Obtenido de
http://www.eumed.net/libros-gratis/2013/1252/teoria-distritos-industriales.html
Camisón, Z. C. (1996). Competitividad y teoría de la estrategia: un análisis aplicado a la cohabitación pyme-gran empresa. (R. A.
Economía, Ed.) Dialnet(6), 63-102. Recuperado el 13 de 12 de 2015, de https://dialnet.unirioja.es/servlet/articulo?codigo=3863495
Climent, V. C. (2010). Emprendimiento, economía Social y Empleo. (I. U. IUDESCOOP, Ed.) IUDESCOOP, Instituto Universitario de
Economía Social y Cooperativa de la Universidad deValencia, 13. Recuperado el 01 de Septiembre 2015 de 2015, de
http://www.senadores.ucr.org.ar/civitas/modulos/noticias/adjuntos/adjunto_20720_11.pdf#page=11
Leal, R. J. (2008). De la Economia global al desarrollo local: El alcance de la intervención de los agentes de empleo y desarrollo local. En
L. G. Ana María Fuertes. VAlencia: Universitat de Valencia. Obtenido de
https://books.google.com.mx/books?id=dZVm2HXpv7kC&pg=PA120&lpg=PA120&dq=MOLINA,+X.+y+MARTINEZ,+M.T&source=bl&ots
=VecwpCsEMO&sig=aZvKpQfp6H2pChkKiogeZZfIaME&hl=es-419&sa=X&ved=0ahUKEwizp-
2wxKLLAhWkgYMKHdJ3B4QQ6AEIJTAB#v=onepage&q=MOLINA%2C%20X.%20y%20MARTI
Parra Requena, G. G. (2008). Coopetición y ventaja competitiva en los Distritos Industriales. Investigaciones Europeas de Dirección y
Economía de la Empresa, 14, 85-102. Recuperado el 25 de enero de 2016, de
http://apps.elsevier.es/watermark/ctl_servlet?_f=10&pident_articulo=90134897&pident_usuario=0&pcontactid=&pident_revista=345&ty=113&
accion=L&origen=zonadelectura&web=www.elsevier.es&lan=es&fichero=345v14n01a90134897pdf001.pdf
Porter, M. E. (1982). Estrategia Competitiva Técnicas para el análisis de los sectores industriales y de la competencia. México: Compañía
Editorial S.A.
Sanchez, S. E. (septiembre de 2008). Los Distritos Industriales Italianos y su repercusión en el desarrollo de las pequeñas y medianas
empresas. (Revista de Geografía Norte Grande, Ed.) Redaly.org Sistema de Información Científica Redalyc. Red de Revistas cuentíficas de
América Latina y el Caribe, España Portugal(40), 40-57. Recuperado el 25 de 01 de 2016, de
http://www.redalyc.org/articulo.oa?id=30011620003
Sánchez, Z. L. (2007). Aproximación a la incidencia de la industria vinícola El desarrollo Económico del Valle de Guadalupe (México) y la
Manchela (España). Eumet.net. Recuperado el 11 de 12 de 2015, de http://www.eumed.net/tesis-doctorales/2007/tesislsz/5.htm
Saravi, G. A. (Mayo-agosto de 1998). Micro y pequeñas empresas en los distritos industriaes de México: La necesidad de un nuevo contexto
institucional. Sociológica, 251-264. Obtenido de http://www.revistasociologica.com.mx/pdf/3712.pdf
Staber, U. (2001). The estructure of networks in industrial districts. Internanacional Journals of Urbana Regional, 25(3), 557-552.
Tecnológica, O. (s.f.). Empresas de base tecnológica. Observatorio Virtual de Transferencia de Tecnología.
Tremblay, D.-G. (agosto de 1997). La adopción del modelo italiano de distritos industriales en Quebec, ¿Proceso en Marcha? (C. exterior,
Ed.) Comercio Exterior, 646-655. Obtenido de http://revistas.bancomext.gob.mx/rce/magazines/338/5/RCE5.pdf
Resumen—Se pretende encontrar una solución al problema del rendimiento escolar de los alumnos en el nivel básico
intermedio (secundaria) con un método basado en la programación lineal, esto se hace considerando los ritmos cognitivos
de los estudiantes como uno de los factores más importantes en el proceso de optimización y la asignación adecuada de
salones, horarios y docentes. Considerando los métodos de optimización como son los algoritmos genéticos, evolutivos,
aleatorios y el Algoritmo Genético de Clasificación No-dominada (NSGA-II), se encuentran resultados positivos en el
aumento del rendimiento escolar en los estudiantes. Este artículo propone el uso de programación lineal entera para el
aumento del rendimiento escolar con el uso de los ritmos cognitivos que puedan presentar los estudiantes.
Introducción
Desde hace tiempo el bajo rendimiento escolar en los diferentes niveles escolares ha sido un problema latente en
las comunidades, debido a que juega un papel importante en la vida de los individuos: explica en gran parte las
diferencias entre sus ingresos y es fundamental para el crecimiento económico de los países (Cunha, Heckman, & al,
2006). Razón por la cual el banco mundial ha ofrecido préstamos para la educación a muchos países que lo
requieran, en donde indica la importancia de mantener una adecuada educación básica. Por este medio se pretende
establecer una equidad en los niveles socioeconómicos de un país y así tener un “bienestar social” más equitativo
(Ascolani, 2008).
Ante los hechos citados se han realizado investigaciones de las diferentes capacidades cognitivas que un
individuo pueda tener a diferentes horas del día (Folkard, 1990) y del comportamiento del rendimiento de la
memoria de corto-plazo (Johnson & al., 1991). En el trabajo de Valentinuzzi (2008), menciona como nuestras
capacidades cognitivas y el proceso de aprendizaje terminan afectándose mutuamente.
Todas estas investigaciones han llevado a plantearse metodologías para mejorar el aprovechamiento escolar,
mediante el uso de las técnicas de la investigación de operaciones. Se realizó una programación de horarios en una
escuela en donde se utilizó los Algoritmo Genético de Clasificación No-dominada (NSGA-II), para asignar la mejor
manera las materias a diferentes horas del día con la utilización de los ritmos cognitivos (Suárez, Guerrero, & al,
2012), otra manera para atacar este problema, es utilizando los algoritmos evolutivos para asignar los horarios de
una universidad, con el mismo enfoque anterior (Castrillón, 2014). Se ha utilizado los algoritmos genéticos simples
en la asignación de salones, pero usando los ritmos de aprendizaje (Suarez Chilma, Castrillón Gomez, & al, 2013).
En otro trabajo se trata de encontrar que algoritmo es mucho mejor al momento de asignar las materias a un horario
en específico, para mejorar el conocimiento en los alumnos, tales métodos son el algoritmo genético y el algoritmo
de búsqueda aleatoria (Castrillón, 2014).
El Presente estudio tiene como finalidad aumentar el aprovechamiento escolar mediante el uso de los ritmos
cognitivos, en una institución de nivel secundaria, mediante el uso de la programación lineal entera. En el cual se
busca el mejor acomodo de los horarios en una jornada escolar con el uso de estos ritmos.
1 Ing. Pavel López Parra, estudiante del cuarto semestre de Maestría en Ingeniería Industrial en el Instituto Tecnológico de
Culiacán, Culiacán, Sinaloa. Pavel1316@gmail.com
2 Dra. Carmen Guadalupe López Varela, profesora del Instituto Tecnológico de Culiacán. cglopez_it@yahoo.com.mx
3 Dr. José Fernando Hernández Silva, profesor del Instituto Tecnológico de Culiacán. fhernandez@itculiacan.edu.mx
4
Mc. Jesús Ramón Ochoa Gallegos, profesor del Instituto Tecnológico de Culiacán. ramon_ochoaga@yahoo.com.mx
Figura 1. Porcentaje de alumnos (en 1ro, 2do y 3er grados) por niveles de logros en Matemáticas. Fuente: ENLACE
(2014), Resultados Históricos 2006-20011.
Figura 2. Porcentaje de alumnos (en 1ro, 2do y 3er grados) por niveles de logros en Español. Fuente: ENLACE
(2014), Resultados Históricos 2006-20011.
Modelos aplicados a ritmos cognitivos
Teniendo en cuenta el bajo rendimiento escolar en el país y el problema de asignación de horarios a distintas
horas del día, han llevado a utilizar métodos en la cual ataque estos tipos de problema.
La jornada se divide en tres segmentos de horarios, que son: un periodo de inicio bajo, uno intermedio alto y uno
de descenso. Tomando en cuenta esto, se clasificó las materias por tres bloques, en donde el primer bloque son las
ciencias naturales y sociales; el segundo bloque es ciencias exactas, lenguajes e idiomas; y el tercer bloque, áreas de
deportes, tecnologías y manualidades (Suárez, Guerrero, & al, 2012).
Algunas soluciones que se plantearon para resolver el problema de asignación tomando en cuenta los ritmos
cognitivos, son los Algoritmo Genético de Clasificación No-dominada (NSGA-II) (Suárez, Guerrero, & al, 2012),
Algoritmos evolutivos (Castrillón, 2014) y los Algoritmos genéticos simples (Suarez Chilma, Castrillón Gomez, &
al, 2013).
Método Propuesto
Se propone a utilizar el método de programación lineal entera para resolver el problema de asignación de horarios
basados en el rendimiento escolar en una secundaria en el cual se pretende maximizar el aprovechamiento con el uso
de los ritmos cognitivos.
Dentro de la programación lineal entera, existen distintos tipos de modelos matemáticos aplicados para resolver
problemas de asignación de horarios, personal, transporte, entre otros. En esta investigación se utilizara un modelo
de asignación de horarios.
El modelo matemático general de asignación es:
Para tomar en cuenta este modelo se pretende utilizar restricciones que contribuyan al modelo propuesto de
asignación aplicado a esta investigación.
Tipos de restricciones
Para el modelo que se propone se seguirá ciertas restricciones que se dividen en restricciones duras y blandas:
Restricciones duras, aquí se encuentran las restricciones que son de carácter obligatorio, como la carga
académica, la disponibilidad de los docentes y los procesos pedagógicos, por lo que estas restricciones son las
siguientes:
Restricciones blandas, aquí se encuentran las restricciones que no tienen un carácter obligatorio, pero pueden
determinar el nivel de optimización de las soluciones. Este tipo de restricciones están asociadas con los ritmos
cognitivos de los estudiantes y en el cual se busca maximizar el rendimiento escolar cuando se realice su evaluación.
Con esto se clasifico tres tipos de restricciones que se presentan a continuación:
Restricción 1 (R1): En esta restricción se contempla las que tienen una mejor atención en la primera y
segunda hora del día.
Restricción 2 (R2): aquí se contempla las que tienen una mejor disposición de atención en la tercera y
cuarta hora.
Restricción 3 (R3): Esta restricción se considera a la capacidad de tener una mejor atención en la quinta y
sexta hora del día (Suarez Chilma V. F., 2012).
Conclusiones y Perspectivas
Con la aplicación de estos modelos de optimización mencionados se obtuvieron avances en la mejora de la
asignación de aulas, horarios y disponibilidad del docente, cumpliendo con la restricción de los ritmos cognitivos de
los estudiantes, y la inquietud de este trabajo se fundamenta en aplicar un nuevo modelo matemático basado en la
programación lineal entera de asignación en el que se mejore el rendimiento escolar y que genere mayor eficiencia y
así procurar la mejora continua en el conocimiento de los estudiantes.
Dentro de las perspectivas se espera que este modelo optimice la asignación de horarios, aumentando el
aprovechamiento escolar en los alumnos y así elaborar de manera automática un software que asigne de manera más
óptima y en el menor tiempo posible.
Bibliografía
Ascolani, A. (2008). Estrategias del Banco Mundial para el financiamiento de la educación en los países latinoamericanos. Educação, 139-156.
Castrillón, O. (2014). cognitive rhythms and evolutionary algorithms in university timetables scheduling. Revista de Matemática: Teoría y
Aplicaciones 2015, 135-152.
Castrillón, O. (2014). Combinación entre Algoritmos Genéticos y Aleatorios para la Programación de Horarios de Clases basado en Ritmos
Cognitivos. Información Tecnológica, 51-62.
Cunha, F., Heckman, J. J., & al, e. (2006). INTERPRETING THE EVIDENCE ON LIFE CYCLE SKILL. Handbook of the Economics of
Education, Volume 1, 698-805.
ENLACE. (2014). Evaluacion Nacional del Logro Academico en Centros Escolares. Obtenido de Evaluacion Nacional del Logro Academico en
Centros Escolares: http://www.enlace.sep.gob.mx/content/gr/docs/2013/historico/25_EB_2013.pdf
Folkard, S. (1990). Circadian performance rhythms: some practical and theoretical implications. Royal Society of London, 543-553.
Johnson, M. P., & al., e. (1991). Short-term memory, alertness and performance: a reappraisal of their relationship to body temperature. J. Sleep
Res., 24-29.
OEI. (2014). Miradas Sobre La Educación En Iberoamérica. Madrid: Organización de Estados Iberoamericanos para la Educación, la Ciencia y la
Cultura.
Reynoso Cantú, E. L. (Febrero de 2011). Factores que Determinan el Rendimiento Escolar en el Nivel Secundario en el Estado de Nuevo León
(Tesis). Factores que Determinan el Rendimiento Escolar en el Nivel Secundario en el Estado de Nuevo León. Nuevo León, México:
Instituto de Investigaciones Sociales.
Santiago, P., McGregor, I., & al., e. (2012). Revisiones de la OCDE sobre la Evaluación en Educación MÉXICO. México: OCDE.
Serra de la Figuera, D. (2004). Metodos Cuantitativos Para la Toma de Decisiones. España: Ediciones Gestión 2000.
Suarez Chilma, V. F. (2012). Disminución de la mortalidad académica en instituciones de educación básica y media mediante el empleo de
técnicas inteligentes en la asignación de horarios (Tesis). Universidad Nacional de Colombia, 1-147.
Suarez Chilma, V. F., Castrillón Gomez, O. D., & al, e. (2013). Class Schedule Assignment Based on Students Learning Rhythms Using A
Genetic Algorithm. Ingeniería y Ciencia, 77-95.
Suárez, V. F., Guerrero, Á., & al, e. (2012). Programación de Horarios Escolares basados en Ritmos Cognitivos usando un Algoritmo Genético de
Clasificación No-dominada, NSGA-II. Información Tecnológica, 103-114.
Valentinuzzi, V., & al., e. (2008). Los ritmos biologicos y el aprendizaje. Revista Ciencias, 41-46.
Resumen—En este trabajo se evaluó el efecto del secado por aspersión sobre la bioactividad y el color de extractos
acuosos obtenidos de la pulpa y la cáscara de frutos de Opuntia spp. y sus mezclas. Las microcápsulas fueron obtenidas
con una temperatura de entrada de 175 °C, usando goma de mezquite como material de pared. Se determinó que el
secado por aspersión tuvo un efecto estadísticamente significativo (P≤0.05) sobre el contenido de Betalaínas totales,
mostrando una mayor disminución para la mezcla de extracto de pulpa:extracto de cáscara de tuna en proporción 3:7
(ET, 3:7), siendo de 1.0649 ± 0.0024 mg/100g y para la mezcla de extracto de pulpa:extracto de cáscara de tuna en
proporción 0:1 (ET, 0:1) siendo de 0.8857 ± 0.0025 mg/100g, mientras que para los extractos de xoconostle se observó un
menor efecto del secado sobre la disminución de Betalaínas totales, siendo para la mezcla 3:7 en proporción de
pulpa:cáscara de xoconostle (EX, 3:7) de 0.2063 ± 0.0022 mg/100g la y para la mezcla formada en proporción de
pulpa:cáscara de xoconostle 1:0 (EX, 1:0) de 0.1903 ± 0.0022 mg/100g. El contenido de fenoles totales, flavonoides, actividad
antioxidante por ABTS y DPPH, así como el color, fueron influenciados por la presencia del material de pared en las
microcápsulas. Por lo anterior, sólo las betalaínas pueden considerarse como un buen indicador la degradación de los
extractos microencapsulados con goma de mezquite.
Palabras clave— Pigmentos, betalaínas, secado por aspersión, goma de mezquite.
Introducción
Los frutos de Opuntia spp. contienen valiosos y atractivos compuestos funcionales que pueden ser extraídos y
utilizados en la industria alimentaria (Saenz, 2006), tales como los pigmentos naturales, estos se clasifican en
clorofilas, carotenoides, fenoles y betalaínas, estas últimas son alcaloides derivados de la tirosina que pueden ser de
dos tipos: las betacianinas que son de color rojo-violeta y las betaxantinas con tonalidades amarillas-naranjas, ambas
con el cromóforo común del ácido betalámico (González, et al., 2014).
Los pigmentos tienen muchas desventajas cuando se comparan con los colorantes sintéticos, incluyendo mayor
costo en uso y menor estabilidad. No obstante, se ha evitado cada vez más el uso de colorantes sintéticos,
prefiriendo los pigmentos naturales, que se consideran inofensivos o incluso saludables (Azeredo, 2009).
Una de las técnicas más ampliamente usadas para la protección de este tipo de pigmentos es la
microencapsulación mediante secado por aspersión, la cual con ayuda del material de pared puede mejorar la
estabilización de betalaínas y los demás compuestos bioactivos presentes (Desai y Park, 2005). Los materiales de
pared, pueden ser polisacáridos (almidones, maltodextrina, goma arábiga, etc.), proteínas (gelatina, caseína, proteína
de soya, proteína de trigo, etc.) o lípidos (ácido esteárico, mono y diglicéridos) (Orozco, 2003).
Existen algunos otros materiales que han sido propuestos como alternativas a los materiales de pared más
comunes, entre ellos se encuentra la goma exudada del árbol de mezquite (Prosopis laevigata), la cual comparte
muchas propiedades con la goma arábiga, y ha sido propuesta como su sustituto, pero que presenta una mejor
protección contra la degradación de pigmentos (Orozco, et al., 2003).
_____________________________
1
Karla Guadalupe López, estudiante de la maestría en Ciencias de los Alimentos, Instituto de Ciencias Agropecuarias,
Universidad Autónoma del estado de Hidalgo, Av. Rancho Universitario s/n Km. 1. Tulancingo, Hidalgo, 43600, México.
lopez.pastrana.karla@hotmail.com
1
David Chávez Borges, estudiante del Instituto de Ciencias Agropecuarias, Universidad Autónoma del estado de Hidalgo, Av.
Rancho Universitario s/n Km. 1. Tulancingo, Hidalgo, 43600, México. chavez_1893@hotmail.com
1
Dra. Alma Delia Hernández Fuentes Académico del Instituto de Ciencias Agropecuarias, Universidad Autónoma del estado
de Hidalgo, Av. Rancho Universitario s/n Km. 1. Tulancingo, Hidalgo, 43600, México. hfad@hotmail.com
1
Dr. Rubén Jiménez Alvarado Académico del Instituto de Ciencias Agropecuarias, Universidad Autónoma del estado de
Hidalgo, Av. Rancho Universitario s/n Km. 1. Tulancingo, Hidalgo, 43600, México (Corresponsal).
ruben_jimenez@uaeh.edu.mx
Resultados.
Comparando los valores de betalaínas totales en los extractos (Figura 1A) y después de la microencapsulación
(Figura 1B), se observa que hay una menor disminución del contenido de betalaínas en el extracto EX,1:0 seguido de
EX,3:7. Por otro lado, para los extractos de tuna se encontró un mayor efecto del secado por aspersión sobre los
valores de betalaínas totales, mostrando una disminución mayor en la concentración de betalaínas para el extracto
ET,3:7.
A) B)
A) B)
En las gráficas de flavonoides (Figura 3), actividad antioxidante para el radical DPPH (Figura 4) y actividad
antioxidante para el radical ABTS (Figura 5) se observó que la microencapsulación de los extractos empleando
goma de mezquite tuvo un efecto significativo sobre la concentración equivalente de los estándares utilizados, ya
que se presentó un incremento en los valores de estas variables en los extractos microencapsulados. Esto no sucede
para las betalaínas (betaxantinas y betacianinas), las cuales no están presentes en la goma de mezquite, por lo que
pueden ser un buen indicador de la degradación sufrida por los extractos durante su microencapsulación mediante
secado por aspersión a 175 °C de temperatura de entrada.
A) B)
A) B)
A) B)
Cuadro 1. Efecto del secado por aspersión sobre el color de los extractos.
Comentarios Finales
Resumen de resultados
Con respecto a los extractos, se encontró un mayor contenido de Betalaínas totales (P≤0.05) en los extractos de
tuna, siendo de 2.0084 ± 0.0015 mg/100g para el extracto ET, 3:7 y de 1.6725 ± 0.0055 mg/100g para ET, 0:1. Con
respecto a los extractos de xoconostle, el extracto EX, 3:7 presentó valores de 0.4542±0.0012 mg/100g,
significativamente mayores (P≤0.05) que los encontrados en el extracto EX, 1:0, para los que se encontró un valor de
0.3412 ± 0.0012 mg/100g. Cuando se realizó la microencapsulación de los extractos empleando goma de mezquite
como material de pared, se observó una disminución en el contenido de betalaínas totales en todos los casos. Los
mayores valores del contenido de betalainas totales en los extractos microencapsulados de tuna se observaron en las
microcápsulas MET,3:7 presentando valores de 0.9435 ± 0.023 mg/100g, seguido de MET,0:1 presentando valores de
0.7868 ± 0.0793 mg/100g, mientras que las microcápsulas que presentaron una menor concentración de Betalaínas
totales (P≤0.05) fueron las obtenidas con xoconostle, obteniéndose valores de 0.2479 ± 0.0074 mg/100g para las
microcápsulas MEX,3:7, y de 0.1509 ± 0.0062 mg/100g para las microcápsulas MEX,1:0.
Por otro lado, la mayor concentración de fenoles totales en los extractos se presentó en ET, 0:1 con valores de
11.016 ± 0.079 mg EAG/mL; seguido de ET3:7 y EX3:7 cuyos valores no presentaron diferencia estadísticamente
significativa (P≤0.05), siendo de 8.507± 0.067 mg EAG/mL y 8.198±0.041 mg EAG/mL respectivamente. Mientras
que la concentración menor se presentó en la relación EX, 1:0 siendo de 4.778± 0.079 mg EAG/mL. En las
microcápsulas obtenidas después del secado por aspersión con goma de mezquite se observó un comportamiento
diferente para cada muestra analizada, siendo MET, 3:7 y MEX, 3:7 las microcápsulas con mayor contenido de fenoles
totales, con valores de 7.02± 0.041 mg EAG/mL y 7.07± 0.05 mg EAG/mL respectivamente. Por su parte las
microcápsulas MET, 0:1 presentaron valores de 6.577 ± 0.025 mg EAG/mL, y las microcápsulas MEX, 1:0 presentaron
valores de 6.299 ± 0.054 mg EAG/mL.
Para el análisis de flavonoides totales, la mayor concentración en los extractos se presentó en EX, 3:7, siendo de
2.746 ± 0.114 mg EQ/mL; seguido de ET, 0:1, que presentó un valor de 2.5780 ± 0.0135 mg EQ/mL; y el extracto ET,
3:7 con un valor de 1.851 ± 0.009 mg/EQ, mientras que la concentración menor se presentó en el extracto EX, 1:0,
siendo de 0.019 ± 0,009 mg EQ/mL. En las microcápsulas obtenidas después del secado por aspersión con goma de
mezquite, la mayor concentración de flavonoides totales se presentó en las microcápsulas MET, 3:7, MEX, 3:7 y MET, 0:1
cuyos valores no presentaron diferencia estadísticamente significativa (P≤0.05) siendo de 3.540 ± 0.036 mg EQ/
mL, 3.488 ± 0.059 mgEQ/ mL y 3.461 ± 0.036 mg EQ/mL respectivamente, mientras que la concentración menor
de flavonoides totales se presentó en las microcápsulas MEX, 1:0 con un valor de 2.162 ± 0.059 mg EQ/ mL.
En los resultados de la capacidad antioxidante para el radical DPPH la mayor concentración se presentó en los
extractos ET, 0:1 y EX, 1:0 cuyos valores no presentaron diferencia estadísticamente significativa (P≤0.05) siendo de
3.187 ± 0.012 mg EAG/mL y 3.325 ± 0.042 mg EAG/mL respectivamente. Las concentraciones menores se
presentaron en los extractos ET, 3:7 y EX, 3:7 cuyos valores no presentaron diferencia estadísticamente significativa
(P≤0.05), siendo de 2.818 mg/EAG y 2.808mg EQ/mL respectivamente. La mayor concentración de la capacidad
antioxidante se presentó en las relaciones MET, 3:7 y MEX, 3:7 cuyos valores no presentaron diferencia
estadísticamente significativa (P≤0.05) siendo de 3.724 ± 0.005 mg EAG/ mL y 3.719 ± 0.002 mg EAG/ mL,
mientras que la concentración menor de actividad antioxidante se presentó en las relaciones MET, 0:1 y MEX, 1:0
cuyos valores no presentaron diferencia estadísticamente significativa (P≤0.05) siendo de 3.700 ± 0.005 mg
EAG/mL y 3. 699 ± 0.006 mg EAG/ mL respectivamente.
Por otro lado, la mayor concentración de la capacidad antioxidante para el radical ABTS se presentó en ET, 0:1
siendo de 187.120 ± 0.441 mg EAG/mL, seguido del extracto ET, 3:7 con valor de 161.075 ± 0.294 mg EAG/ mL, y
EX, 1:0 con valor de 146.206 ± 0.441 mgEAG/mL, la concentración menor se presentó en la relación E X, 3:7 siendo de
98.657 ± 0.14 mg EAG/mL. En las microcápsulas obtenidas después del secado por aspersión MEX,1:0 y MEX, 3:7
fueron las microcápsulas con mayor capacidad antioxidante para el radical ABTS cuyos valores no presentaron
diferencia estadísticamente significativa (P≤0.05) siendo de 140.422 ± 0.001 mg EAG/mL y 170.258 ± 0.19 mg
EAG/mL respectivamente, seguido de la microcápsula MET, 3:7 con valor de 169.833 ± 0.098 mg EAG/mL, la
relación con la concentración menor fue la microcápsula MET, 0:1 con valor de 169.833 mg EAG/mL, siendo esta
última la concentración en donde no se observó que el material de pared alterara el contenido de la capacidad
antioxidante. Se observó que el material de pared alteró significativamente el contenido de fenoles totales,
flavonoides totales, actividad antioxidante para el radical DPPH y ABTS, debido a la presencia de taninos y otros
compuestos en la goma de mezquite (López-Franco et al., 2011). Los parámetros de color L*, a*, b* de los extractos
de tuna y xoconostle, sufrieron un cambio significativo (P≤0.05) después de haber sido sometidos al secado por
aspersión.
Conclusiones
Las Betalaínas pueden ser un buen indicador de la degradación de los compuestos bioactivos presentes en los
extractos de frutos de Opuntia spp. microencapsulados mediante la técnica de secado por aspersión, ya que su
cuantificación no se ve afectada cuando se usa goma de mezquite como material de pared. Los extractos de
xoconostle son menos susceptibles a degradación por secado por aspersión, comparados con los extractos de tuna.
Recomendaciones
Los investigadores interesados en continuar nuestra investigación podrían concentrarse en estudiar la estabilidad
de las microcápsulas durante su almacenamiento, mediante la elaboración de isotermas de sorción, en diferentes
condiciones de temperatura. Además podrían estudiar la morfología de las microcápsulas, mediante microscopía
electrónica de barrido y conocer su tamaño y forma. También podrían hacer estudios de estabilidad térmica de las
microcápsulas, con el fin de estudiar el grado de protección que brinda el matrial de pared al material encapsulado
contra el efecto de la temperatura.
Referencias
Arvouet, G. A.; Vennat B.; Pourrat A. y Legret P. Standardization d’une extrait de propolis et identification des principaux constituents, Journal
de Pharmacie de Belgique, 49 (1994) 462-468.
Azeredo, H. (2009). Betalains properties, sources, applications, and stability – a review. Food Science & Technology. 44, 2365–2376.
Barbosa, M.I.; Borsarelli, C.D. y Mercadente, A.Z. Light stability of spray-dried bixin encapsulated with different edible polysaccharide
preparations. Food Research International 38 (2005) 989–994.
Brand,W.; Cuvelier M.E.; Berset C. El uso de un método de radicales libres para evaluar la actividad antioxidante. Food Science Technology. 28
(1995) 25-30.
Desai, K. G. y Park, H. J. Recent development in microencapsulation of foods ingredients. Drying Technology, 23 (2005) 1361-1394.
González, A.E., Campos, M.R., Pinedo, E.J., Aguirre, A.G. y Hernández, F.A. Stability of color in extracts from different genotypes from red
prickly pear (Opuntia spp.). Revista Científica Biológico Agropecuaria Tuxpan 2 (2014): 728-735.
López, F.Y.; Códova, M.R.; Goycoolea, F.M.; Valdez, M.A.; Juárez, O.J. y Lizardi, M.J. Classification and physicochemical characterization of
mesquite gum (Prosopis spp.). Food Hydrocolloids 26 (2011) 159-166.
Orozco, V. J., Cruz S. F., Ponce A. E., y Vernon C. E. Mesquite gum: fractionation and characterization of the gum exuded from Prosopis
laevigata obtained from plant tissue culture and from wild trees. Carbohydrate Polymers, 54 (2003) 327-333.
Re, R., Pellegrini, N., Proteggente, A. , Pannala, A., Ynag, M., Rice-Evans, C. Antioxidant activity applying and improved ABTS radical cation
decolorization assay. Free Radical Biology and Medicine, 26 (199) 1231-1237.
Sáenz, C. Utilización agroindustrial del nopal. Boletín de Servicios Agrícolas de la FAO, (2006) 162-186.
Stintzing, F., Hebach, K., Mosshammer, M., Carle, R., Yi, W., y Sellappan, S. Color, betalain pattern, and antioxidant properties of cactus pear
(Opuntia spp.) clones. Journal of Agricultural and Food Chemestry, 52 (2005) 442-451.
Resumen- Este trabajo presenta los resultados de la investigación relacionada con el desarrollo sustentable en la región de
Acapulco de Juárez debido a la conurbación, teniendo en cuenta la simbiosis entre el crecimiento de la población y la
consecuente proliferación de empresas turísticas. Así podemos apreciar que la población del municipio ha crecido en los
últimos años en 1%, sin embargo en forma estacional la población se incrementa hasta en un 100%. Esto provoca efectos
negativos en los recursos naturales del entorno, mismos que a la vez, afectan a la población. Estas externalidades negativas
son de carácter económico, social y ambiental, mismas que representan en lo económico, un mercado laboral sin capacidad
de absorber la oferta de trabajo con empleos e ingresos insuficientes para atenuar los problemas que en lo social se
presentan como desempleo, pobreza, marginación, inseguridad entre otros, y en lo ambiental traducido en contaminación
de recursos naturales.
Introducción
En este artículo abordamos uno de los procesos que toda localidad enfrenta, debido a que su infraestructura natural
y física es alentadora para atraer inversión y a la vez población que se integra a las actividades económicas. Sin
embargo, estas localidades que entran en un proceso de conurbación se ven fuertemente afectadas en lo económico,
social y ambiental a consecuencia de la falta de planificación para el desarrollo regional sustentable.
El objetivo de este estudio es precisamente analizar el desarrollo urbano en la zona conurbada de Acapulco que se
une a localidades del municipio de Coyuca de Benítez, para hacer un diagnóstico de una muestra de los restaurantes
que en esta zona se encuentren y conocer su interés por contribuir a la preservación del medio ambiente, Así mismo,
posteriormente implementar un programa de capacitación al personal de estos negocios en materia de educación
ecológica que abone al desarrollo regional sustentable, definido éste como el proceso donde la ciudad evolucione
tanto en lo económico, lo social y lo ambiental, sin perjudicar la vida presente y futura.
Se realizó una investigación documental sobre los procesos de conurbación urbana y la sustentabilidad en las
empresas, asimismo se realizó un estudio de campo apoyados en un GPS y se utilizaron mapas digitales para
identificar los restaurantes turísticos en la zona de estudio. Con la aplicación de cuestionarios y de entrevistas, éstos
nos dieron la información necesaria para diagnosticar en qué medida contribuyen a la preservación del medio
ambiente y por ende del desarrollo regional sustentable de la zona conurbada Acapulco- Coyuca de Benítez. Con los
resultados del diagnóstico se diseño un programa de capacitación, que se implementó durante seis sesiones, para que
los dueños y empleados de los restaurantes contribuyan a la preservación del medio ambiente
Marco teórico
1 Maricela López Trejo MC es profesora de Ingeniería en Gestión Empresarial en el Instituto Tecnológico de Acapulco, México.
trejo_mar@hotmail.com (autor corresponsal)
2 La Dra. Elisa Cortes Badillo es profesora en Gestión Empresarial en el Instituto Tecnológico de Acapulco, México
elicorbad@hotmail.com
3El MC Audencio Salmerón Calvario es profesor en Ciencias de la Tierra en el Instituto Tecnológico de Acapulco
audencio_arq@hotmail.com
4El Dr. Eloy Mata Carrillo es profesor en Ciencias de la Tierra en el Instituto Tecnológico de Acapulco, México
prof.mata@gmail.com
5 El MC Leonel Hernández Delos Santos es profesor en Ingeniería en Gestión Empresarial en el Instituto Tecnológico de
Conurbación
Según el autor Cecilia Inés Moreno Jaramillo en su libro La conurbación: rizoma urbano y hecho ambiental
complejo nos dice que la conurbación es un fenómeno mediante el cual dos o más ciudades se integran
territorialmente, independientemente de su tamaño, de sus características propias y de la adscripción administrativa
que posean. El término conurbación fue acuñado en 1915 por el geógrafo escocés Patrick Geddes cuando, en su texto
Ciudades en evolución, hacía referencia a un área de desarrollo urbano donde una serie de ciudades diferentes habían
crecido al encuentro unas de otras, unidas por intereses comunes: industriales o de negocios, o por un centro
comercial o recreativo común.
La conurbación, que también se califica como proceso de “juntamiento” o “pegamiento”, da lugar a una nueva
territorialidad a modo de un rizoma que extiende sus tallos horizontalmente bajo el suelo, para emerger de nuevo a la
superficie con la forma de más vida. En la conurbación coexisten la integración y la escisión, pues se trata de
rizomas en interacción en los que los encuentros y desencuentros se suceden simultáneamente y en forma cotidiana.
De acuerdo a Patiño Vanegas, J.E) en su libro Bordes Conurbados Metropolitanos, Interacción Socio-Espacial y
Fragmentación Territorial, En el Área Metropolitana del Valle de Aburra nos menciona lo siguiente sobre
conurbación:
El concepto de conurbación, debe diferenciarse de la aglomeración urbana, fenómeno caracterizado por la
expansión de una ciudad, a la que se debe toda la dinámica del área, que afecta a varios núcleos y municipios
vecinos, los cuales son absorbidos o suburbanizados por la ciudad para formar un todo continuo en el que solamente
hay una organización del espacio (un centro, una periferia, áreas suburbanas y espacios periurbanos).
Teoría del Desarrollo Sustentable
Se definió por primera vez en el documento conocido como Informe Brundtland en 1987, esta teoría fue el fruto de
los trabajos realizados por la Comisión Mundial del Medio Ambiente y Desarrollo de las Naciones Unidas.
En el desarrollo sustentable se preservan y protegen los recursos naturales mientras que en el desarrollo sostenible
se satisfacen esas necesidades para las generaciones futuras como la vivienda, alimentación, vestuario y trabajo.
Esta teoría se divide en tres partes: dimensión ecológica, dimensión económica y dimensión social. La dimensión
ecológica se percata en la conservación de los recursos naturales pero des-afortunadamente el gran despliegue
económico ha hecho que la creación de las grandes industrias por el mismo hombre produzca contaminación
ambiental y nos prive del aire puro sin mirar las consecuencias que nos puede traer.
Algunas grandes industrias abusan en la deforestación y quitan el soporte de nuestra madre tierra como el abuso en
el agua potable, los minerales y el subsuelo.
La dimensión económica permite identificar determinados parámetros para evaluar que tanto se puede satisfacer
las necesidades a largo plazo distribuyendo los recursos justamente.
La dimensión social consiste en que todo ser humano debe tener los beneficios de educación salud, alimentación
seguridad social y vivienda y tenga la oportunidad de hacer participación en la sociedad para que den unas
contribuciones productivas y justamente pagadas; la desigualdad conlleva a una amenaza humana para la estabilidad
a largo plazo.
Desarrollo regional
El desarrollo regional es un proceso orientado a la transformación y organización de los espacios y los territorios.
Como concepto, el desarrollo regional tiene atribuciones que definen un campo de interacción en las dimensiones
más importantes del desarrollo, por lo que refiere cambios cualitativos en los planos económico, social, político,
ambiental, tecnológico y territorial. En la práctica se asocia a la organización productiva y el progreso técnico; las
tareas de gobernabilidad y gestión; la preservación del ambiente y la organización territorial de la sociedad que
habita al interior de las mismas. El desarrollo regional incorpora principios de equidad y participación y se reconoce
las vertientes del desarrollo en un sentido integral.
El desarrollo regional opera mediante el diseño de políticas públicas expresadas en planes y programas que en
cierto sentido orientan la organización del territorio y los procesos económicos de las regiones. En el caso de México
hemos tenido diversas experiencias de desarrollo regional que han privilegiado el enfoque sectorial del desarrollo y
han dado lugar a ciertos desequilibrios entre las regiones del país.
Empresas turísticas
Son empresas turísticas, las que tienen por objeto de su actividad la prestación, mediante precio, de servicios de
alojamiento, restauración, mediación entre los usuarios y los oferentes de servicios turísticos o cualesquiera otras
directamente relacionadas con el turismo que sean calificadas como tales.
Serán considerados establecimientos turísticos los locales e instalaciones, abiertos al público, temporalmente o de
modo continuado, y acondicionados de conformidad con la normativa en su caso aplicable, en los que las empresas
turísticas prestan al público sus servicios.
Las empresas turísticas pueden ser:
De alojamiento turístico.
De mediación entre usuario y oferente del producto.
De restauración.
Las empresas turísticas de servicios complementarios.
Cualesquiera otras que presten servicios relacionados con el turismo o que incluyan entre sus actividades
servicios turísticos y que reglamentariamente se clasifiquen como tales.
Resultados obtenidos
Los resultados obtenidos de la investigación muestran que el proceso de conurbación en la zona conurbada
Acapulco- Coyuca de Benítez ha sido creciente al extenderse los poblados de Pie de la Cuesta, El Conchero, El
Embarcadero y la cabecera municipal de Coyuca de Benítez. Dicha extensión de los poblados mencionados dieron
origen a pequeñas localidades que se asentaron a la orilla de la carretera nacional, que hasta hace dos décadas eran
localidades con pocos habitantes, mismos que aprovechando la ubicación han levantado pequeños comercios entre
ellos restaurantes o mejor dicho comederos familiares que le permiten auto emplearse y obtener ingresos que en
algunos casos combinan con otras actividades para sostenerse. Cabe mencionar, que sí ha llegado la inversión de
gran monto, como es el centro turístico “Los Manglares” que se extiende hasta la isla de la Montosa, existiendo un
restaurant, hotel, un puente de madera entre los manglares que conduce a una unidad de manejo para la conservación
de la vida silvestre (UMA), además existen cuatro gasolineras a lo largo de la carretera.
En la Zona Conurbada desde Coyuca de Benítez a Acapulco se encuentran los pueblos de: Embarcadero,
Bajos del Ejido, El Conchero, Pedregoso y Pie de la Cuesta como se presenta en la figura No.1
El Municipio de Acapulco de Juárez es el Municipio más grande del estado de Guerrero por su tamaño de
población y el más importante en términos de su contribución al Producto Interno Bruto.
Acapulco fue un gran polo desarrollo en los años cuarentas, y sus tasas de crecimiento económico se
conservaron por arriba de la media nacional hasta el año 2000, pero en el periodo de 2000 el 2010 tuvo una
disminución en su tasa de crecimiento, así lo registró el censo de población y vivienda el INEGI del año 2010,
sin embargo los problemas urbanos no disminuyeron si no al contrario se han incrementado paulatinamente
producto de la desatención de los diferentes niveles de gobiernos, Federal Estatal y Municipal. Esta
desatención de los problemas inherentes al crecimiento de la mancha urbana en sus diferentes aspectos, ha
ocasionado grandes déficits en los servicios urbanos, y la mancha urbana no se detiene, y se extiende de
manera acelerada hacia los municipios colindantes.
En La última década del 2000 al 2010 esta gran metrópoli que se ha expandido desde su anfiteatro hacia tres
ejes urbanos de crecimiento de la mancha urbana, uno de ellos hacia la zona oriente colindando con el
Municipio de San Marcos, otro eje hacia el poniente con el Municipio de Coyuca de Benítez y el ultimo eje
urbano identificado, se ubica hacia las localidades de El 30 y Xaltianguis colindando con Municipio de Juan
R. Escudero.
Por lo anterior en esta investigación se propone realizar un análisis en uno de estos ejes urbanos como lo es el
corredor turístico Acapulco de Juárez- Coyuca de Benítez, enfocada al crecimiento de la mancha urbana de
ambos municipios y a la proliferación de restaurantes turísticos y el impacto que este proceso ocasiona en el
medio ambiente.
El municipio de Coyuca de Benítez se localiza al suroeste del estado de Guerrero, en la región de la Costa Grande,
y en las coordenadas geográficas 16°55’ y 17°22’ de latitud norte y entre los 99°50’ y 100°22’ de longitud oeste.
Respecto a su extensión, cuenta con una superficie total de 1,602.9 kilómetros cuadrados. Sus colindancias
territoriales son al norte con los municipios de Chilpancingo de los Bravo y General Heliodoro Castillo, al sur con el
Océano Pacífico, al oeste con Atoyac de Álvarez y Benito Juárez y al este con Acapulco de Juárez.
Desarrollo económico: El comercio es la principal actividad económica del municipio, por ello existen gran
cantidad de comercios dedicados a la venta de víveres para abastecer a la comunidad, entre los que se encuentran: El
Mercado Municipal, Zapaterías, Abarroteras, Tiendas de Ropa, Artículos para la Agricultura y el campo,
Restaurantes, Fondas, Farmacias, etc.
Desarrollo social: Cuentan con instituciones educativas de nivel básico a medio superior, se cuenta con una unidad
auxiliar de medicina familiar del IMSS; una unidad auxiliar de medicina familiar del ISSSTE y el reciente hospital
General de Coyuca.
Desarrollo turístico: En la centro de la ciudad se encuentra una iglesia de estilo colonial con cúpula central, única
en su tipo en toda la cordillera del estado de Guerrero. Fuera de la ciudad cuenta con extensos litorales, tanto en sus
playas como La Barra de Coyuca, Playa Azul, El Carrizal y Mitla; como en su zona lacustre con dos grandes
lagunas: Mitla y Coyuca. Dentro de la laguna de Coyuca se sitúan dos islas: la Isla de los Pájaros (Isla Pelona) y la
Isla Montosa. La Isla de Pájaros o Pelona, sirve de refugio a diversas especies de aves que emigran desde Canadá y
han tomado como suya la isla, para beneplácito de los visitantes que acuden en lanchas desde Pie de la Cuesta y del
Embarcadero hasta la Isla Montosa, donde se puede disfrutar de suculentos platillos de la región como el Cuatete al
Chingadazo, así como pescados de la propia laguna. Las fiestas populares se realizan el 3 de mayo, día de la Santa
Cruz; el 15 de mayo, a San Isidro Labrador; del 6 al 16 de abril, la tradicional feria de La Palmera; del 20 al 30 de
septiembre se festeja a San Miguel Arcángel y el 8 de diciembre a la Purísima Concepción.
Desarrollo Sustentable: Se aplicó un diagnóstico a los 4 restaurantes turísticos ubicados en la orilla del rio de
Coyuca y como resultado se obtuvieron en lo económico precios altos que están en desacuerdo a la calidad de los
alimentos que ofrecen, así también en lo social, el personal que labora es de la región no está preparado y enlo que
se refiere al medio ambiente, el rio se mantiene limpio, pero al no tener lugares adecuados para los residuos sólidos,
no hay separación de basura, los baños están al aire libre por lo que hay contaminación.
El embarcadero:
El Embarcadero está situada en el Municipio de Coyuca de Benítez (en el Estado de GuerreroTiene 1288 habitantes
a 10 metros de altitud. En la localidad hay 624 hombres y 664 mujeres. La relación mujeres/hombres es de 1.064. El
ratio de fecundidad de la población femenina es de 3.15 hijos por mujer. El porcentaje de analfabetismo entre los
adultos es del 10.02% (7.37% en los hombres y 12.5% en las mujeres) y el grado de escolaridad es de 8.05 (8.22 en
hombres y 7.89 en mujeres).
Desarrollo Económico: Los pescadores lugareños usan redes para pescar las distintas especies de peces que se
encuentran en la laguna y que venden en el pueblo del "EMBARCADERO" y a los restaurantes del lugar.
Desarrollo Social: Cuenta 336 hogares. De estas 325 viviendas, 70 tienen piso de tierra y unos 69 consisten de una
sola habitación.272 de todas las viviendas tienen instalaciones sanitarias, 210 son conectadas al servicio público, 310
tienen acceso a la luz eléctrica. La estructura económica permite a 15 viviendas tener una computadora, a 129 tener
una lavadora y 300 tienen una televisión
Desarrollo Sustentable: Se hizo un diagnóstico de 5 restaurantes localizados en la laguna, y se obtuvo como
resultado que los restaurantes en lo económico, los precios de sus platillos están de acuerdo al costo de la materia
prima por lo que están acorde a las posibilidades del cliente, el social se contratan al personal de la comunidad pero
no es tan preparados y los salarios que les no rebasan los 2 salarios mínimos, y en lo ecológico, no hay áreas
adecuadas para la basura, ni separan la basura, los baños están aire libre por que hay mucha contaminación
Bajos del Ejido
Bajos del Ejido es una población perteneciente al municipio de Coyuca de Benítez, en el Estado de Guerrero. Cuenta
con 6165 habitantes. Bajos del Ejido se encuentra a 0007 metros sobre el nivel del mar (SNM).
Desarrollo Económico. El 50%de la población se dedica a la agricultura, y el 50% al comercio.
Desarrollo social: Hay un total de 1443 hogares.de estos 1379 viviendas, 361 tienen piso de tierra y unos 279
consisten de una sola habitación.1124 de todas las viviendas tienen instalaciones sanitarias, 270 son conectadas al
servicio público, 1336 tienen acceso a la luz eléctrica. La estructura económica permite a 45 viviendas tener una
computadora, a 425 tener una lavadora y 1196 tienen una televisión. En el desarrollo de salud y bienestar para el
pueblo cuentan con muchas fuentes de infecciones como lo son piquetes de los mosquitos ya que existen muchos
malos hábitos y coladeras destapadas que provocaran a la larga enfermedades que pueden complicar más la vida de
las personas y es muy importante mencionar que aunque cuenten con atención de primeros auxilios no dará tiempo
de llegar a algún lugar para salvar a la persona si es una urgencia por que el centro de salud se encuentra más
adelante en Coyuca.
Desarrollo Sustentable.- Tres restaurantes localizados en las orillas del poblado, en lo económico, los precios
están acorde a los alimentos que ofrecen .en lo social el personal que trabaja es de la comunidad pero no están
preparados y en lo que respecta a lo ecológico, no áreas especiales para la basura, no separan la basura, los baños
están aire libre y hay contaminación.
El Conchero
Está situada en el Municipio de Coyuca de Benítez. Tiene 1201 habitantes. Tiene 10 metros de altitud.
Desarrollo Económico: El conchero son personas normales trabajadoras que viven de lo que producen en el
campo, su estilo de vida es rutinario sobre sus actividades, los baños con los que cuentan son rústicos pozos
escavados para sus necesidades y el agua utilizada es la del arroyo que corre por un lado del pueblo, el único
recurso que si llega de manera correcta es la luz, además que cuentan con buen transporte que son las combis y los
camiones para su traslado diario.
Desarrollo Social.-En la localidad hay 580 hombres y 621 mujeres. La relación mujeres/hombres es de 1.071. El
ratio de fecundidad de la población femenina es de 2.78 hijos por mujer. El porcentaje de analfabetismo entre los
adultos es del 9.91% (8.28% en los hombres y 11.43% en las mujeres) y el grado de escolaridad es de 7.10 (7.16 en
hombres y 7.05 en mujeres). No cuenta con centro médico ni primeros auxilios para atenciones rápidas a personas
heridas.
Desarrollo Sustentable.-Dos restaurantes localizados en las orillas del poblado, en lo económico, los precios están
acorde a los alimentos que ofrecen .en lo social el personal que trabaja es de la comunidad pero no están preparados
y en lo que respecta a lo ecológico, no áreas especiales para la basura, no separan la basura, los baños están aire libre
y hay contaminación.
El Pedregoso.
El pueblo El Pedregoso se localiza en el municipio de Acapulco de Juárez. Su clima predominantemente es
subhúmedo cálido, con una temperatura media anual es de 28°C, y una mínima de 22°C. Su código postal es 39905 y
su clave lada es 744.
Desarrollo económico: Los habitantes de esta comunidad viven del comercio, del reciclaje de fierro, vivero, así
madererías así como restaurantes que ofrecen alimentos a la orilla de la carretera.
Desarrollo social: Para cuestione como la salud las personas tienen que trasladarse adelante del pueblo (Coyuca)
para que se les brinde atención medica ya que en el pueblo no existe ningún centro de salud o paramédicos
trabajando en paralelo con el gobierno para brindar seguridad a la salud de los habitantes. El desarrollo social en el
pedregoso se encuentra en buen estado ya que cuenta con estaciones de agua potable luz y alcantarillado público
que hace más dócil la estancia en ese pequeño poblado, por otro lado no hay escuelas en el poblado así que hay que
trasladarse a distancias largas pero las cuales se pueden recorrer en las combis de la zona, colectivos o camiones
públicos que transitan todo el día por el pedregoso
Desarrollo Sustentable: Se analizaron dos restaurantes que cuentan con servicios de alimentos y bebidas, desde lo
económico los precios de los platillos son costeados por el dueño de acuerdo a la materias primas, en lo social el
personal es de la región está capacitado para atender al cliente, en lo ecológico los restaurantes son de cemento y con
una buena estructura, cuentan con baños, pero no separan toda la basura solo plásticos y el drenaje es en fosa séptica.
Por lo que no hay contaminación.
Pie de la Cuesta
Ubicada a sólo 10 kms de la Bahía de Acapulco, Pie de la Cuesta es una hermosa playa tropical que se extiende por
unos 17 kilómetros entre el Océano Pacífico y la hermosa laguna de Coyuca. Muy famosa por sus puestas de sol, está
bordeada de encantadores y rústicos hoteles y restaurantes con hamacas debajo de las enramadas, donde puede
olvidarse de todo el estrés y relajarse en la sombra, comiendo deliciosos mariscos y pescado fresco "a la talla" y
bebiendo sus bebidas tropicales favoritas. Debido al muy fuerte oleaje no es aconsejable bañarse en la zona pero es
una playa ideal para largas caminatas románticas, torneos de volleyball, paseos en cuatrimotos y paseos a caballo o
burro por la orilla del mar.
Desarrollo económico: El 80% de los habitantes vive del turismo, ofreciendo servicios de alojamiento, alimentos y
bebidas y recorridos acuáticos y terrestres y el 20% en la pesca.
Desarrollo social: Cuenta con Instituciones educativas de Nivel básico hasta nivel medio superior, en salud y
bienestar las personas cuentan con un sistema de paramédicos como pequeño centro de atención a las personas que
sufran algún tipo de accidente ubicado en medio del pueblo de pie de la cuesta con personal altamente capacitado
para tratar algún tema de estos.
Desarrollo Sustentable.- Toda la franja de Pie de la Cuesta están ubicados restaurantes y hoteles, como en la playa
o la laguna, de los 5 restaurantes investigados en lo económico se encontró que los precios de los alimentos se
costean de acuerdo a las materias primas, así como el 100% de los clientes están satisfechos con la calidad en sus
platillos, en lo social , el personal que labora es del lugar y sus salarios no rebasan a dos salarios mínimos, así
también, en lo ecológico se encontró que si separan la basura orgánica la venden para alimentos de los animales, el
aceite lo venden, en lo que respecta a la inorgánica hay separación de plásticos y latas que son vendidas por kilo,
pero papel y cartón no es separada y pasa el carro de la basura por ellos . Con respecto a los baños separados hombre
y mujeres y están construidos con cemento y se encuentra en buenas condiciones, en lo que respecta la estructura de
los restaurantes están combinados materiales de la región y cemento.
Conclusiones
La investigación presenta el proceso de conurbación en la zona conurbada Acapulco- Coyuca de Benítez ha sido
creciente al extenderse los poblados de Pie de la Cuesta, El Conchero, El Embarcadero y la cabecera municipal de
Coyuca de Benítez. Dicha extensión de los poblados mencionados dieron origen a pequeñas localidades que se
asentaron a la orilla de la carretera nacional, que hasta hace dos décadas eran localidades con pocos habitantes,
mismos que aprovechando la ubicación han levantado pequeños comercios entre ellos restaurantes con un enfoque
turístico, ya que es paso obligado de visitantes que van a la Costa Grande, Guerrero, Cabe mencionar que los
restaurantes que se le realizó el diagnóstico presentaron deficiencia en las tres dimensiones del desarrollo
sustentable, en el caso del económico los precios de sus platillos son definidos por los costos de las materias primas,
en lo social , el personal que labora en las empresas es de cada región, pero sus salarios se basan de dos mínimos por
lo que no alcanzar a cubrir sus necesidades básicas, en lo ecológico encontramos que el caso de los restaurantes de
Pie de la cuesta si se separan la basura orgánica que la venden para alimentación de animales y la inorgánica
solamente separan el platico y el metal para su venta y los otros residuos son enviados a los carros de basura, sim
embargo en los poblados de Coyuca de Benítez, Embarcadero, Conchero, y Pedregoso no hay ninguna separación de
residuos, Con lo que respecta a los uso drenaje es en fosa séptica en todas las localidades y eso representa una
contaminación en los recursos natuarles
Bibliografía
Libro La conurbación: rizoma urbano y hecho ambiental complejo. Autor: Cecilia Inés Moreno Jaramillo.
Libro Bordes Conurbados Metropolitanos, Interacción Socio-Espacial y Fragmentación Territorial. Autor Patiño Vanegas, J.E
Libro el crecimiento de las ciudades y de la calidad de vida en la provincia de Barcelona. Autores VICENTE ROYUELA AQR. IREA
Catálogo Sistema Urbano Nacional 2012. Autor Sara TopelsonFridman
Libro Desarrollo territorial rural. Autores Alexander Schejtman y Julio A. Berdegué
Libro El desarrollo territorial de las ciudades estrategia para la seguridad ambiental. Autor ARQ. Clío Capitanachi moreno.
Introducción
En el caso del SMED se toma en cuenta el tiempo de alistamiento o preparación, la solución tradicional que
busca mitigar su impacto consiste en la planificación de grandes lotes de producción, reduciendo al mínimo el
número de cambios, pero afectando la flexibilidad de la producción, y consiguiendo de forma colateral aumentar los
niveles de inventario.
Una de las técnicas más exitosas en la reducción de los tiempos perdidos por preparación es la metodología
SMED (Single Minute Exchange Die - Cambio de Matriz en Solo un Minuto). Esta metodología desarrollada por
Shigeo Shingo es de origen japonés, y fue implementada por primera vez para Toyota en la década de los setenta. La
hipótesis en que se fundamenta el SMED supone que una reducción de los tiempos de preparación nos permite
trabajar con lotes más reducidos, es decir, tiempos de fabricación más cortos, lo cual redunda en una mejora
sustancial de tiempos de entrega y de niveles de producto en tránsito. Este se desarrolla en cuatro etapas
fundamentales.
La aplicación del método SMED consiste en el desarrollo de cuatro fases necesarias para poder llevar el
proceso de manera eficiente.
El primer paso y quizás el más importante. Como primer paso para mejorar el tiempo de preparación es
distinguir las actividades que se llevan a cabo. El tiempo es reducido eliminando del tiempo de preparación interna
todas las tareas que pueden ser desempeñadas mientras el equipo está en funcionamiento, este es el primer paso en
las mejoras. Se pueden conseguir reducciones de tiempo de hasta 50% sin casi nada de inversión.
Esta primera fase implica diferenciar entre la preparación con la máquina parada (preparación interna) y la
preparación con la máquina en funcionamiento (preparación externa). En el primer caso se hace referencia a aquellas
operaciones que necesitan inevitablemente que la máquina esté parada.
En el segundo caso se hace referencia a las operaciones que se pueden realizar con la máquina en marcha.
El primer paso consiste en diferenciar este tipo de operaciones, es decir, cuando la máquina está parada no se debe
realizar ninguna operación de la preparación externa. En las operaciones con la máquina parada se deben realizar
exclusivamente la retirada y la colocación de los elementos particulares de cada producto (moldes, matrices, ajustes
etc.). Se explica de manera más clara en la imagen 1.
Es claro que esta actividad debe efectuarse siempre y cuando sea posible. Sin embargo, la conversión de
actividades internas en externas no se limita de ninguna manera a efectuar actividades de preparación sobre la
máquina cuando esta se encuentra operando, puesto que existen un sin número de actividades que constituyen una
conversión de actividades internas en externas sin compromisos de seguridad. El método SMED ha sido aplicado
con éxito en fórmula 1, y en estas paradas podemos observar gran aplicación de esta fase del método, como por
ejemplo, los preajustes que tienen los elementos de sujeción de las llantas, esto constituye la conversión de una
actividad interna en una externa.
Los siguientes métodos pueden ser usados para convertir las preparaciones o actividades internas a externas:
Para eliminar pequeñas pérdidas de tiempo es necesario tener en cuenta las siguientes preguntas
¿Qué preparaciones se necesitan hacer por adelantado?
¿Qué herramientas se deben tener a la mano?
¿Están las herramientas y plantillas en buenas condiciones?
¿Qué tipo de mesa de trabajo es necesaria?
¿Dónde deberían los dados y plantillas colocase después de ser removidos, si serán transportados?
¿Qué tipo de partes son necesarias, cuantas se necesitan?
Esta fase se basa en la disposición de todas las herramientas y materiales (matrices, elementos de fijación,
etc.) que soportan las operaciones externas. Estos elementos deben estar dispuestos al lado de la máquina tras
haberse realizado toda reparación de los componentes que deben entrar. Es usual que en esta fase se deba realizar
algún tipo de inversión en activos de manutención, almacenamiento, alimentación o transporte. Por ejemplo, en el
alistamiento de moldes para inyección, una actividad crítica es el transporte de estos, razón por la cual una grúa o
montacargas especializado y con ajustes específicos se constituye en una muy buena herramienta, así mismo, el
lugar en el que se almacenan los moldes tiene un efecto corolario en la distancia recorrida (implica tiempo) para
efectuar un eventual cambio.
Esta fase consiste básicamente en reducir al mínimo los procesos de ajuste. Se considera que este tipo de
procesos constituye entre el 50% y el 70% de las operaciones de preparación interna. Uno de los mejores métodos
de reducción es la estandarización de las características de los sistemas de sujeción de los elementos móviles de las
máquinas. Otro aspecto clave en esta fase pasa por los tiempos de parametrización y ajuste para lograr la calidad del
producto, en este caso, debemos centrarnos en fijar un estándar de las operaciones del proceso.
Conclusión
La aplicación de la técnica SMED para la preparación de las maquinas cuando se realiza el cambio de
procesos, es muy útil ya que se puede reducir notablemente el tiempo de preparación de la maquinaria para poder
comenzar a producir otra línea de productos, otro beneficios es la eliminación de pasos innecesarios que tal vez no
aportaban el beneficio esperado ya que solo aportaban un aumento de tiempo en la preparación. La reducción de
tiempos traerá muchos beneficios, uno de ellos es el aumento de la producción ya que se le podrá dar más tiempo a
la producción haciendo más eficientes los tiempos. El objetivo es el reducir al máximo el tiempo de preparación y
así como la disminución de los errores haciendo que todo se realice una sola vez teniendo como causa el
cumplimiento del objetivo de la aplicación del SMED que es reducir todo a un solo minuto, que aunque en algunos
proseos estos no se logre, por lo menos reducir al máximo el tiempo de preparación que se utilice, si se realizaba en
30 minutos, que se llegue al objetivo de realizarlo en 15 minutos.
Referencias
http://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/producci%C3%B3n/t%C3%A9cnica-smed-
cambio-de-matriz-en-un-solo-minuto/
http://mtmingenieros.com/knowledge/que-es-smed/
Preparación rápida de las maquinas: El sistema SMED. Ing. Francis Paredes Rodríguez.