Estrategia Digital Nacional

Objetivo de Estrategia Digital Nacional(EDN)

Iniciativa para alinear los objetivos, políticas y acciones de todos los actores de la sociedad, para generar competitividad y equidad con base en el uso de las TIC.

¿QUE TEMAS NO ESTÁN CONSIDERADOS?

La estrategia digital nacional no presenta sus objetivos de manera smart y en muchos de los casos suenan casi imposibles de alcanzar porque desde un principio no queda claro que es lo que van a lograr.

Principalmente encuentro que no se consideran algunos puntos importantes:

  • Presupuesto. ¿Cual es el presupuesto destinado para la ejecución de la estrategia?¿Como se va lograr financiar este proyecto?

  • Seguridad de la información. ¿Qué organismo se encargará de la seguridad de la información a ser digitalizada?

  • Métricas. ¿Qué métricas se utilizan para medir los resultados de la estrategia?

  • Plan para la implementación de la estrategia.

  • Utilización de herramientas ya existentes o software libre para lograr alcanzar los objetivos de la estrategia.

  • Carencia de Política de Tecnologías de Información y Comunicaciones

  • Como se establecerá la red de proveedores para poder llegar a cumplir los objetivos planteados.

Transformación Gubernamental

  • Ventanilla única de servicios, ¿Cuáles serán los servicios que están comprometidos a ofrecer en estas ventanillas?. En qué grado estará integrada la solicitud de documentos de los trámites que ofrecen.

  • Como se dotara de firma electrónica avanzada a todos, para que no exista sesgo por parte de las áreas más desfavorecidas en México.

  • Deuda tecnológica.

Economía digital

  • El impulso del acceso a internet por banda ancha se restringe por los altos costos de adquisición del servicio. Qué medidas se tienen contempladas para ofrecer a todos los mexicanos el acceso al hilo conductor de los entregables que vaya a generar esta estrategia.

Educación de calidad

  • Plan para medir la calidad de los contenidos digitales que se ofrecerán a los estudiantes mexicanos.

¿DE LOS TEMAS QUE NO ESTÁN CONSIDERADOS CUÁL SERÍA EL PRINCIPAL A DESARROLLAR Y CUÁLES NO?

De los temas que no se contemplan en la EDN encuentro que el más importante es especificar claramente los objetivos específicos de manera smart (specific, measurable, attainable, relevant and time-bound).

Hace falta un plan para llevar a cabo la EDN identificando riesgos, prioridades, tiempos, organismos gubernamentales  involucrados,métricas.

REFERENCIAS

http://www.adnpolitico.com/gobierno/2013/11/26/expertos-estrategia-digital-nacional-sin-base-para-iniciar

http://www.jornada.unam.mx/ultimas/2013/11/25/presenta-pena-la-estrategia-digital-nacional-enfocada-en-economia-salud-educacion-y-seguridad-2641.html

http://cidge.gob.mx/historico/historico-destacados/estrategia-digital-nacional-2/

Metodología sw, calidad y satisfacción del cliente.

Proyecto “Checador móvil”

¿Cuál es la mejor metodología para desarrollar software?

Revisando las metodologías para desarrollar software encontramos que hay una tendencias para utilizar metodologías ágiles, que en teoría permiten responder a los cambios de mejor manera que las metodologías tradicionales.También incorpora como referencia no ágil el Capability Madurity Model (CMM).

CMM

ASD

Crystal

DSDM

FDD

LD

Scrum

XP

Sistema como algo cambiante

1

5

4

3

3

4

5

5

Colaboración

2

5

5

4

4

4

5

5

Características Metodología (CM)

-Resultados

2

5

5

4

4

4

5

5

-Simplicidad

1

4

4

3

5

3

5

5

-Adaptabilidad

2

5

5

3

3

4

4

3

-Excelencia técnica

4

3

3

4

4

4

3

4

-Prácticas de colaboración

2

5

5

4

3

3

4

5

Media CM

2.2

4.4

4.4

3.6

3.8

3.6

4.2

4.4

Media Total

1.7

4.8

4.5

3.6

3.6

3.9

4.7

4.8

Tabla 1. Ranking de “agilidad” (Los valores más altos representan una mayor agilidad)

Como metodología de desarrollo de software en nuestra organización utilizaremos XP. La elección se basa en mi experiencia de desarrollo de software para móviles, ya que generalmente son proyectos donde el riesgo técnico es bastante elevado dada la frecuencia con la que se liberan nuevas versiones de lo sistemas operativos móviles seleccionados, además no existe suficiente experiencia por parte de la mayoría de los desarrolladores y la naturaleza de los proyectos generalmente tiende a ser estratégica para colocar en el mercado un producto que ofrezca a nuestros clientes una ventaja competitiva al ser pioneros en el servicio con grandes expectativas por cumplir.

PROGRAMACIÓN EXTREMA (EXTREME PROGRAMMING, XP)

Autor: Kent Beck

XP11 [2] es una metodología ágil centrada en potenciar las relaciones interpersonales como clave para el éxito en desarrollo de software, promoviendo el trabajo en equipo, preocupándose por el aprendizaje de los desarrolladores, y propiciando un buen clima de trabajo. XP se basa en realimentación continua entre el cliente y el equipo de desarrollo, comunicación fluida entre todos los participantes, simplicidad en las soluciones implementadas y coraje para enfrentar los cambios. XP se define como especialmente adecuada para proyectos con requisitos imprecisos y muy cambiantes, y donde existe un alto riesgo técnico.

Las características esenciales de XP se pueden organizar en tres apartados : historias de usuario, roles, proceso y prácticas.

http://www.cyta.com.ar/ta0502/b_v5n2a1.htm

El ciclo de vida ideal de XP consiste de seis fases [2]: Exploración, Planificación de la Entrega (Release), Iteraciones, Producción, Mantenimiento y Muerte del Proyecto.

¿Usar esa metodología los lleva a calidad?

El objetivo es conseguir que un sistema sea satisfactorio para el usuario, sin eso de nada vale lo demás y eso se consigue mediante aproximaciones sucesivas teniendo como soporte a un usuario que es aliado y que está comprometido en el proyecto.

Si nos centramos exclusivamente en el objetivo y no vemos más allá, la calidad del código queda en un segundo plano, es decir, el sistema es lo que el usuario quería, ¿para qué pedir más?. Si el sistema no se va a tocar nunca más, si se van a realizar modificaciones mínimas en el mismo o si no presenta problemas de rendimiento por una mala codificación y/o arquitectura, puede tener sentido que no importe mucho lo que está dentro.

Ahora bien, si se prevén modificaciones de cierta envergadura en el proyecto o que las mismas pueden existir, sí que entra en juego la calidad del código, ya que la deuda técnica del software puede hacer muy costoso el mantenimiento.

Satisfacción del cliente

En primer lugar debemos analizar los puntos de interacción entre el cliente y nuestra organización (web, servicios de atención, documentación comercial, personal..) y las fases de éstas interacciones en el ciclo de relación de cliente (comercial/captacion, venta/servicio, soporte…etc). En cada una de estas interacciones, es necesario conocer la importancia relativa que le otorga el cliente a su experiencia (normalmente bajo en fases previas, aumentando según crece en el ciclo de relación con la compañía – de prospección a venta, por ejemplo) y cómo siente que nuestra organización lo satisface… Este gap nos permitirá entender rápidamente las áreas que debemos mejorar para que nuestros clientes tengan mejores experiencias.

Fred Reichheld creó en 2003 una métrica, el Net Promoter Score (NPS), que permite medir  la experiencia del cliente de una forma muy sencilla, ya que se basa en la respuesta a la siguiente pregunta:

“En una escala del 0 al 10, ¿recomendaría usted (nuestra marca) a un familiar o a  un amigo cercano?”

Esta métrica nos permite identificar de forma temprana a:

  • Detractores: Puntuaciones de 1 a 6

  • Pasivos: Puntuaciones de 7 a 8

  • Promotores: Puntuaciones de 9 a 10

    *

Este indicador puede ser enlazado con aspectos tales como el crecimiento en ventas o margen de productos y servicios, y habitualmente tienen una correlación clara o directa con la retención del cliente y su fidelidad (de hecho, se considera prácticamente inexpugnables para la competencia clientes con NPS superior a 8).

En modelos de negocio que utilizan principalmente el canal internet, la definición de una estrategia de mejora de la experiencia de cliente resulta vital, y permite mejorar los ratios de conversión de forma sorprendente. Existen múltiples formas de actuar en las fases tempranas del ciclo de ventas, como el uso del  marketing experiencial… de lo que hablaremos en otra ocasión.

http://javiermegias.com/blog/2010/04/experiencia-de-cliente-cuando-la-satisfaccion-no-es-suficiente/

¿Como vamos a medir la calidad?

El estándar ISO/IEC 9126 presenta la calidad del software como un conjunto de seis características globales:

  • Funcionalidad. Las funciones del software son aquellas que buscan satisfacer las necesidades del usuario.

  • Confiabilidad. La capacidad del software de mantener su rendimiento bajo ciertas condiciones durante cierto período de tiempo.

  • Usabilidad. Basada en el esfuerzo necesario para utilizar el software por parte de un grupo de usuarios.

  • Eficiencia. Basada en la relación entre el nivel de rendimiento del software y el volumen de recursos utilizado, bajo ciertas condiciones.

  • Capacidad de mantenimiento. Basada en el esfuerzo necesario para realizar modificaciones específicas.

  • Portabilidad. Basada en la capacidad del software para ser transferido de un entorno a otro.

http://www.4rsoluciones.com/como-medir-la-calidad-en-software/

Para medir la calidad del software que produce Móvil Útil encontramos las siguientes alternativas:

  • Satisfacción del cliente (se suele hacer encuestas para obtener este dato)

  • Número de bugs en producción (bugs encontrados y la importancia de los mismos, se podría incluir en satisfacción del cliente)

  • Rentabilidad económica (%, precio de venta – coste de desarrollo)

  • Tiempo de vida por cliente (años que el software está funcionando)

  • Número de clientes (clientes que tiene el software implantado y en producción)

http://geeks.ms/blogs/msierra/archive/2008/08/25/_BF00_C_F300_mo-se-mide-la-calidad-en-el-software_3F00_.aspx

Sin embargo para medir la calidad de nuestro sw utilizaremos el modelo EPCU.

El procedimiento que se seguirá para evaluar la calidad interna/externa de los productos de software consistirá en solicitar a cada líder de proyecto la asignación de valores para las características definidas en el estándar para la calidad externa/interna en relación a su proyecto, las características fueron consideradas como variables de entrada en el modelo EPCU.

La asignación de los valores de las variables de entrada se realizará considerando el juicio de experto de los líderes de cada proyecto, determinando un valor en un rango definido de 0 a 5 sobre el dominio de los número reales.

Por cada área de la organización se obtuvo el promedio de los valores asignados a cada una de las características de calidad considerando todos los proyectos evaluados.

Con los datos promedio de las categorías por área se calculó el índice de calidad por proyecto utilizando el modelo EPCU, de tal manera que se obtuvo un índice de calidad promedio que representa la calidad de los proyectos desarrollados en cada área de la organización.

Esto se realizó para la evaluación de la calidad externa/interna. Un ejemplo de los resultados de este modelo se muestran en las figuras 1 y 2.Figura 1. Asignación de valores promedio para calidad interna.Figura 2. Asignación de valores promedio para calidad externa.

http://sg.com.mx/revista/40/midiendo-la-calidad-del-software

Equipo:

Patricia  Sagahón

Anastacio Lara

Proyecto Final “Checador móvil”

Situación Actual

Las micro, pequeñas y medianas empresas (PYMES), constituyen la columna vertebral de la economía nacional por los acuerdos comerciales que ha tenido México en los últimos años y asimismo por su alto impacto en la generación de empleos y en la producción nacional. De acuerdo con datos del Instituto Nacional de Estadística y Geografía, en México existen aproximadamente 4 millones 15 mil unidades empresariales, de las cuales 99.8% son PYMES que generan 52% del Producto Interno Bruto (PIB) y 72% del empleo en el país.

Por la importancia de las PYMES, es importante instrumentar acciones para mejorar el entorno económico y apoyar directamente a las empresas, con el propósito de crear las condiciones que contribuyan a su establecimiento, crecimiento y consolidación.

http://www.promexico.gob.mx/negocios-internacionales/pymes-eslabon-fundamental-para-el-crecimiento-en-mexico.html

Propuesta

Móvil Útil es una empresa que busca colocar en el mercado la mayor cantidad de utilerías comunes utilizadas por pequeñas y medianas empresas en México, utilizando como medio de interacción con el usuario aplicaciones móviles. Siendo el primer proyecto de la compañía  “Checador móvil”, parte de evolucionar el funcionamiento tradicional de un reloj checador pero con las ventajas inherentes de la tecnología móvil. La importancia de la aplicación radica en dar a conocer la marca en el mercado de pequeñas y medianas empresas mostrando una aplicación que puede ser utilizada por empleados cuyo trabajo de campo requiere cubrir ciertas zonas y aquellos que trabajen físicamente en una oficina.

Objetivos del proyecto

Desarrollar e implementar un sistema que permita registrar las asistencias y localización  geográfica del personal que labora en una empresa a través de una aplicación móvil. En un lapso no mayor a 3 meses.

Objetivos específicos

Desarrollar una aplicación móvil que permita registrar las asistencias y localización  geográfica del personal.
Desarrollar una aplicación web que permita mediante un reporte mostrar la información de los registros realizados por los empleados.

Equipo:

Patricia Sagahón

Anastacio Lara

IDEF

IDEF0  Metodología para modelado funcional de procesos

Esta técnica de modelado describe el proceso como una serie estructurada y jerárquica de actividades (cajas o cuadros) definidas en términos de sus entradas (flecha entrando del lado izquierdo de la actividad), salidas (se representa con una flecha saliendo del lado derecho de la actividad), controles (por flechas entrando en la parte superior indicando las normas, guias, reglas, políticas, reglamentos, etc. ) y mecanismos (indicando por medio de flechas entrando por la parte inferior los recursos que ejecutan la actividad como los roles, agentes máquinas o sistemas).

Un diagrama de alto nivel por lo general identifica los procesos principales mediante los cuales opera la empresa. En seguida se hace un modelo de segundo nivel dividiendo cada uno de estos procesos en una secuencia de subprocesos. Los IDEF0 direccionan no solamente el flujo del proceso sino también su control y además proporciona algunos aspectos del comportamiento del mismo, por lo que es recomendada para analizar los aspectos funcional, informacional y de comportamiento del proceso [Martínez García, 1999 y Hunt, 1996]. Esta técnica es particularmente buena en la captura de la información utilizada en el proceso.

Representación de una actividad

Image13908

•Función o actividad = Frase verbal (Verbo + objeto directo)

•ICOM (Input, Control, Output, Mechanism)

–Las flechas son sustantivos que representan información, personas, lugares, cosas, conceptos, eventos.
Untitled
•IDEF0 modela actividades y es independiente de la organización y tiempo. No es un organigrama!, no es un diagrama de flujo!•IDEF0 fomenta el trabajo en equipo de manera disciplinada y coordinada.

IDEF3 Metodología para captura de descripción de procesos

IDEF3 es una metodología para representar el flujo de trabajo de un proceso, así como sus objetos participantes, a partir de la descripción dada por un experto.

Untitled0VS3

Conexiones

CONEXIONES

divergencia

Automated IDEF Tools

KBSI has developed automated tools to support the IDEFØ, IDEF1, IDEF1X, and IDEF3 methods.  For more information on their complete suite of IDEF-based modeling and analysis software, see theTools page on the KBSI website.

Martha Patricia Sagahón Azúa.

REFERENCIA

http://negro.iing.mxl.uabc.mx/doku.php?id=idef

http://www.idef.com/

Big Data

Big Data

 Big Data, en el sector de las TIC’s es una referencia a los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales en estos casos se centran en la captura, el almacenado, búsqueda, compartición, análisis, y visualización. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos relacionado, tal es el ejemplo de los análisis de negocio, los datos de enfermedades infecciosas, o la lucha contra el crimen organizado.

bigdata

Definición:

“Big data” es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. Los tamaños del “big data” se hallan constantemente en aumento. En 2012 se dimensionaba su tamaño en una docena de terabytes hasta varios petabytes de datos en un único data set.

En 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas,el analista Doug Laney definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Grandes proveedores del mercado de big data están desarrollando soluciones para atender las demandas más críticas de procesamiento de datos masivos, como MapR, Cyttek Group y Cloudera.

¿De dónde proviene toda esa información?

Los seres humanos estamos creando y almacenando información constantemente y cada vez más en cantidades astronómicas. Se podría decir que si todos los bits y bytes de datos del último año fueran guardados en CD’s, se generaría una gran torre desde la Tierra hasta la Luna y de regreso.

Esta contribución a la acumulación masiva de datos la podemos encontrar en diversas industrias, las compañías mantienen grandes cantidades de datos transaccionales, reuniendo información acerca de sus clientes, proveedores, operaciones, etc., de la misma manera sucede con el sector público. En muchos países se administran enormes bases de datos que contienen datos de censo de población, registros médicos, impuestos, etc., y si a todo esto le añadimos transacciones financieras realizadas en línea o por dispositivos móviles, análisis de redes sociales (en Twitter son cerca de 12 Terabytes de tweets creados diariamente y Facebook almacena alrededor de 100 Petabytes de fotos y videos), ubicación geográfica mediante coordenadas GPS, en otras palabras, todas aquellas actividades que la mayoría de nosotros realizamos varias veces al día con nuestros “smartphones”, estamos hablando de que se generan alrededor de 2.5 quintillones de bytes diariamente en el mundo.

¿Qué tipos de datos debo explorar?

Muchas organizaciones se enfrentan a la pregunta sobre ¿qué información es la que se debe analizar?, sin embargo, el cuestionamiento debería estar enfocado hacia ¿qué problema es el que se está tratando de resolver?.

Si bien sabemos que existe una amplia variedad de tipos de datos a analizar, una buena clasificación nos ayudaría a entender mejor su representación, aunque es muy probable que estas categorías puedan extenderse con el avance tecnológico.

bigdata2

1.- Web and Social Media: Incluye contenido web e información que es obtenida de las redes sociales como Facebook, Twitter, LinkedIn, etc, blogs.

2.- Machine-to-Machine (M2M): M2M se refiere a las tecnologías que permiten conectarse a otros dispositivos. M2M utiliza dispositivos como sensores o medidores que capturan algún evento en particular (velocidad, temperatura, presión, variables meteorológicas, variables químicas como la salinidad, etc.) los cuales transmiten a través de redes alámbricas, inalámbricas o híbridas a otras aplicaciones que traducen estos eventos en información significativa.

3.- Big Transaction Data: Incluye registros de facturación, en telecomunicaciones registros detallados de las llamadas (CDR), etc. Estos datos transaccionales están disponibles en formatos tanto semiestructurados como no estructurados.

4.- Biometrics: Información biométrica en la que se incluye huellas digitales, escaneo de la retina, reconocimiento facial, genética, etc. En el área de seguridad e inteligencia, los datos biométricos han sido información importante para las agencias de investigación.

5.- Human Generated: Las personas generamos diversas cantidades de datos como la información que guarda un call center al establecer una llamada telefónica, notas de voz, correos electrónicos, documentos electrónicos, estudios médicos, etc.

The best open source big data tools

Apache Hadoop

When people say “big data” or “data science,” they’re usually talking about a Hadoop project. Hadoop generally refers to the MapReduce framework, but the project also consists of important tools for data storage and processing. This new YARN framework, aka MapReduce 2.0, is an important step forward for Hadoop, and you can expect a big hype cycle to start shortly (if not then I’ll start one!).

There aren’t many Apache projects that support even one heavily capitalized startup. Hadoop supports several. Analysts estimate that Hadoop will be a ballooning market worth tens of billions per year. If you slipped into a coma during the financial crisis and just woke up, this is the biggest thing you missed.

— Andrew C. Oliver

Apache Sqoop

When you think of big data processing, you think of Hadoop, but that doesn’t mean traditional databases don’t play a role. In fact, in most cases you’ll still be drawing from data locked in legacy databases. That’s where Apache Sqoop comes in.

Sqoop facilitates fast data transfers from relational database systems to Hadoop by leveraging concurrent connections, customizable mapping of data types, and metadata propagation. You can tailor imports (such as new data only) to HDFS, Hive, and HBase; you can export results back to relational databases as well. Sqoop manages all of the complexities inherent in the use of data connectors and mismatched data formats.

— James R. Borck

Talend Open Studio for Big Data

Talend Open Studio for Big Data lets you load files into Hadoop (via HDFS, Hive, Sqoop, and so on) without manual coding. Its graphical IDE generates native Hadoop code (supporting YARN/MapReduce 2) that leverages Hadoop’s distributed environment for large-scale data transformations.

Talend’s visual mapping tools allow you to build flows and test your transforms without ever getting your hands dirty with Pig. Project scheduling and job optimization tools further enhance the toolkit.

Gleaning intelligence from big piles of data starts with getting that data from one place to Hadoop, and often from Hadoop to another place. Talend Open Studio helps you swim through these migrations without getting bogged down in operational complexities.

— James R. Borck

Apache Giraph

Apache Giraph is a graph processing system built for high scalability and high availability. The open source equivalent of Google’s Pregel, Giraph is used by Facebook to analyze social graphs of users and their connections. This system circumvents the problem of using MapReduce to process graphs by implementing Pregel’s more efficient Bulk Synchronous Parallel processing model. The best part: Giraph computations run as Hadoop jobs on your existing Hadoop infrastructure. You get distributed graph processing while using the same familiar tools.

— Indika Kotakadeniya

Apache Hama

Like Giraph, Apache Hama brings Bulk Synchronous Parallel processing to the Hadoop ecosystem and runs on top of the Hadoop Distributed File System. However, whereas Giraph focuses exclusively on graph processing, Hama is a more generalized framework for performing massive matrix and graph computations. It combines the advantages of Hadoop compatibility with a more flexible programming model for tackling data-intensive scientific applications.

— Indika Kotakadeniya

Cloudera Impala

What MapReduce does for batch processing, Cloudera Impala does for real-time SQL queries. The Impala engine sits on all the data nodes in your Hadoop cluster, listening for queries. After parsing each query and optimizing an execution plan, it coordinates parallel processing among the worker nodes in the cluster. The result is low-latency SQL queries across Hadoop with near-real-time insight into big data.

Because Impala uses your native Hadoop infrastructure (HDFS, HBase, Hive metadata), you get a unified platform where you can analyze all of your data without connector complexities, ETL, or expensive data warehousing. And because Impala can be tapped from any ODBC/JDBC source, it makes a great companion for BI packages like Pentaho.

— James R. Borck

Serengeti

VMware’s project aimed at bringing virtualization to big data processing, Serengeti lets you spin up Hadoop clusters dynamically on shared server infrastructure. The project leverages the Apache Hadoop Virtualization Extensions — created and contributed by VMware — that make Hadoop virtualization-ready.

With Serengeti, you can deploy your Hadoop cluster environments in minutes without sacrificing configuration options like node placement, HA status, or job scheduling. Further, by deploying Hadoop in multiple VMs on each host, Serengeti allows data and compute functions to be separated, improving computational scaling while maintaining local data storage.

— James R. Borck

Video:

Explaining Big Data

Conclusiones

La naturaleza de la información hoy es diferente a la información en el pasado. Debido a la abundacia de sensores, micrófonos, cámaras, escáneres médicos, imágenes, etc. en nuestras vidas, los datos generados a partir de estos elementos serán dentro de poco el segmento más grande de toda la información disponible.

El uso de Big Data ha ayudado a los investigadores a descubrir cosas que les podrían haber tomado años en descubrir por si mismos sin el uso de estas herramientas, debido a la velocidad del análisis, es posible que el analista de datos pueda cambiar sus ideas basándose en el resultado obtenido y retrabajar el procedimiento una y otra vez hasta encontrar el verdadero valor al que se está tratando de llegar.

Referencias

http://www.infoworld.com/slideshow/119424/bossie-awards-2013-the-best-open-source-big-data-tools-226730#slide15

http://es.wikipedia.org/wiki/Big_data

http://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/index.html?cmp=BS&ct=SocialMedia&cr=twitter

http://mexico.emc.com/campaign/bigdata/index.htm

http://www.cnnexpansion.com/opinion/2013/01/17/por-que-la-innovacion-es-tan-dificil

– Marevna Reséndiz

– Patricia Sagahón

– Alberto Montes Avila