Actualidad

29/04/2025

/ , , , ,

Inteligencia artificial al teclado: así mejora Copilot tu código

En los últimos años, la inteligencia artificial ha pasado de ser una tendencia a convertirse en una herramienta real y práctica en el desarrollo de software. Un claro ejemplo es GitHub Copilot, el asistente de programación basado en IA desarrollado por GitHub y OpenAI. Esta tecnología está revolucionando la forma en que los equipos escriben código, reducen tiempos de entrega y aumentan la calidad de sus productos.

Beneficios y casos de uso de Copilot para desarrolladores

GitHub Copilot ofrece ventajas tangibles tanto para desarrolladores individuales como para organizaciones que buscan mejorar su eficiencia:

  • Aumento de la productividad: Completa funciones estándar o tareas repetitivas en segundos, liberando tiempo para centrarse en aspectos más estratégicos del proyecto.
  • Mejora de la calidad del código: Sugerencias basadas en patrones comunes y buenas prácticas, especialmente útiles en entornos colaborativos.
  • Reducción de la curva de aprendizaje: Facilita la adaptación de perfiles junior o de quienes trabajan con nuevas tecnologías.
  • Impulso a la innovación: Automatiza tareas mecánicas, permitiendo a los equipos centrarse en soluciones de mayor valor.

Además, el potencial de GitHub Copilot se extiende a diferentes fases del ciclo de vida del software:

  • Generación de funciones y código boilerplate.
  • Automatización de pruebas unitarias.
  • Refactorización de código y mejora de eficiencia.
  • Generación de documentación técnica y comentarios.

Del piloto a la implantación como herramienta corporativa

En 2024, en ITERIAM lanzamos un piloto de GitHub Copilot en uno de los principales proyectos abordados desde nuestro Centro de Desarrollo. Se trataba de un producto a medida para un gran cliente, basado en una arquitectura de microservicios con SpringBoot en el back-end y Angular en el front-end.

Durante los dos meses iniciales de prueba, obtuvimos resultados destacados:

  • Back-end: Reducción de hasta un 85 % en el tiempo de desarrollo de tests complejos.
  • Front-end: Ahorro de entre 15 % y 75 %, según la complejidad del componente.
  • Productividad global: Ahorro medio del 50 % en el desarrollo de tests unitarios.
  • Cobertura de tests: Alcanzamos entre el 90 % y el 95 % de cobertura en Sonar.

Además, observamos mejoras adicionales como:

  • Facilitación en la búsqueda de información mediante Copilot Chat.
  • Mejora en la calidad del código, adaptándose al estilo del equipo.
  • Aceleración en el aprendizaje de perfiles junior.
  • Optimización de consultas SQL.

Por último, detectamos las siguientes limitaciones:

  • En la validación de Pull Requests (PRs) en GitHub, Copilot generó inicialmente demasiados comentarios irrelevantes, especialmente en PRs de más de 1.000 líneas de código.
  • Se observó que Copilot requiere un periodo de adaptación para optimizar sus sugerencias, tanto por parte de la IA como de los desarrolladores.

Conclusiones

En ITERIAM hemos decidido implementar GitHub Copilot en proyectos donde tenemos control extremo a extremo (E2E) sobre el ciclo de vida del desarrollo, aprovechando además las capacidades de Microsoft 365 (M365) como entorno de trabajo seguro y colaborativo.

Dentro de nuestro ecosistema diferenciamos entre:

  • GitHub Copilot para Microsoft 365 (Copilot M365): Herramienta centrada en productividad (Word, Excel, Outlook, Teams) que utiliza IA para optimizar la gestión de información, documentación y colaboración interna.
  • GitHub Copilot for Developers: Solución orientada a entornos de desarrollo de software, asistiendo en la escritura de código, pruebas y automatización de tareas técnicas.

Aunque ambos productos comparten una base IA, su aplicación es diferente. En ITERIAM utilizamos Copilot M365 para potenciar la eficiencia administrativa y Copilot for Developers en proyectos donde controlamos el flujo de desarrollo.

Para aprovechar Copilot al máximo, recomendamos integrarlo como asistente, no como sustituto del conocimiento técnico, establecer normativas de revisión específicas para código generado por IA y fomentar la formación en prompt engineering para mejorar las sugerencias recibidas.

La adopción de GitHub Copilot marca una evolución en el rol del desarrollador: menos tiempo dedicado a tareas mecánicas y más foco en la estrategia, la arquitectura y la innovación. GitHub Copilot no viene a reemplazar a los desarrolladores: viene a potenciar su talento.

Actualidad

14/03/2025

/ , , , , ,

Claves sobre el futuro del desarrollo de las aplicaciones multiplataforma

Sabemos que el desarrollo de aplicaciones multiplataforma es cada vez más importante en la transformación digital empresarial. En ITERIAM somos conscientes de la necesidad cada vez mayor de las compañías para optimizar recursos, reducir costes y ofrecer experiencias unificadas en sistemas multiplataformas. La demanda de soluciones más eficientes es la constante en un mercado de evolución constante 

La IA, motor de la evolución para el desarrollo software 

La Inteligencia Artificial Generativa está transformando el modo en que las apps multiplataforma son creadas y redefiniendo continuamente el panorama del desarrollo de software. En los próximos años asistiremos a un crecimiento acelerado en el uso de IA para el desarrollo low-code y no-code, que facilitará a las empresas la creación de soluciones personalizadas y adaptadas a su negocio, con menor dependencia de desarrolladores y un enfoque en la optimización del rendimiento y el valor diferencial de la compañía

En ITERIAM somos conscientes que las soluciones de software deben ofrecer una mayor eficiencia, escalabilidad, personalización y seguridad, permitiendo a las empresas adaptarse rápidamente a un entorno digital siempre cambiante:

  • Generación de código con IA: Herramientas como GitHub, Copilot o ChatGPT ya están transformando el desarrollo de software, permitiendo a los desarrolladores escribir código de manera más rápida y eficiente, reduciendo tiempos de desarrollo y permitiendo a estos profesionales centrarse en la innovación de los sistemas o en la resolución de problemas complejos.
  • Automatización de pruebas: Plataformas basadas en IA pueden detectar errores en etapas tempranas, lo que reduce los costes y los tiempos asociados a la corrección de este tipo de fallos en los primeros estadios de los proyectos. Esto facilita el desarrollo de aplicaciones más estables y seguras que mejoran la calidad del producto final.
  • Personalización de la experiencia de usuario: La IA facilita una interacción más intuitiva y fluida, adaptable a las preferencias, intereses y comportamientos de los usuarios de manera personalizada. Gracias al análisis de datos en tiempo real, las aplicaciones pueden adaptarse a estas necesidades específicas al tiempo que optimizan la retención y la utilización de las mismas a largo plazo
  • Seguridad reforzada con IA: Los algoritmos de inteligencia artificial son capaces de detectar vulnerabilidades en tiempo real e identificar patrones sospechosos, con lo que se anticipan a posibles ataques antes de que estos supongan una amenaza. En ese entorno de seguridad, se protege tanto la estabilidad de las apps como la integridad de la información.

Tendencias en el desarrollo de soluciones

En ITERIAM somos conscientes del impacto que la IA está generando en las empresas y le sacamos todo el potencial a las tendencias que están marcando el futuro del desarrollo de aplicaciones a medida:

Aplicaciones nativas en la nube

Las arquitecturas cloud-native y serverless son clave en la transformación del desarrollo de software actual. Tecnologías como AWS Lambda, Azure Functions y Google Cloud Run permiten escalabilidad automática y menor dependencia de infraestructura física. Los beneficios principales de este tipo de tecnología son:

  • Un mayor rendimiento y disponibilidad y rendimiento eliminando la preocupación por la administración de servidores.
  • La reducción de costes operativos mediante modelos de pago on demand.
  • Escalabilidad en tiempo real que se adapta dinámicamente a las necesidades específicas de las empresas

Experiencias mejoradas

El futuro de todo este desarrollo de apps a medida pasa por ofrecer experiencias homogéneas en diferentes dispositivos. Como ejemplo de tecnologías básicas en este área destacamos las siguientes:

  • Frameworks avanzados como son Flutter, .NET MAUI, React Native y WebAssembly permiten desarrollar aplicaciones de alto rendimiento con una única base de código.
  • Progressive Web Apps (PWA, que ofrecen funcionalidades nativas en navegadores sin necesidad de instalación alguna.
  • La integración con dispositivos wearables y asistentes virtuales, que mejorando la interacción en sectores como salud, fitness y automatización del hogar.

Seguridad reforzada con IA y Zero Trust

Ante la imparable evolución de las amenazas cibernéticas, es necesario más que nunca estrategias efectivas de seguridad. Los próximos años anticipan  En los próximos años, la implementación de alguno de estos sistemas será la norma general de uso:

  • Adopción del modelo Zero Trust, que verifica cada acceso a sistemas y datos.
  • Autenticación sin contraseñas con tecnologías como Passkeys y autenticación biométrica.
  • IA en ciberseguridad, imprescindible para analizar patrones y detectar ataques en tiempo real.

Integración con IoT y Edge Computing

El crecimiento de los dispositivos conectados impulsa la necesidad de procesar la información de manera más eficiente. Industria, salud o telemedicina son algunos de los sectores más beneficiados en la automatización de procesos, la monitorización en tiempo real o la de seguimiento de envíos y optimización de rutas para los casos de empresas centradas en la logística y el transporte.

¿Por qué tu empresa necesita una app multiplataforma?

Hoy en día, el desarrollo multiplataforma, además de ser una ventaja técnica, es parte fundamental de una estrategia competitiva que  optimiza los recursos tecnológicos para industrias de índole muy diversa, transformando la manera en que operan y ofrecen sus servicios:

  • Finanzas y banca: Aplicaciones seguras y escalables con autenticación biométrica y prevención de fraudes con IA.
  • Retail: Experiencias omnicanal con PWA, integración con chatbots y analítica avanzada
  • Salud y telemedicina: Plataformas de monitoreo en tiempo real, videoconferencias y gestión de historias clínicas en la nube.
  • Industria: Integración con IoT, mantenimiento predictivo y automatización de procesos.
  • Educación: Aulas virtuales inteligentes, contenido interactivo y personalización con IA.

Para acompañarte en este camino de expansión hacia el futuro, contarás con la seguridad de estar en manos del equipo de talento tecnológico de ITERIAM, que te ofrecerán un proyecto personalizado y adaptado a las características de tu empresa, poniendo el foco en las áreas que generan tu mayor valor competitivo.

Sabemos que el futuro del desarrollo de aplicaciones multiplataforma estará marcado por la automatización, la inteligencia artificial y la interconectividad entre dispositivos. Gracias a tecnologías emergentes y soluciones avanzadas, las empresas podrán mejorar su competitividad y productividad en un mundo digital en constante cambio.

Si necesitas una solución de desarrollo ágil, escalable y optimizada para múltiples plataformas, en ITERIAM tienes el aliado perfecto para ayudarte en el diseño de soluciones que marquen la diferencia en tu sector. ¡Lleva tu proyecto a un nivel superior!

Proyectos

13/10/2022

/ , , ,

Todos los servicios desde tu app

Avanza Previsión es la entidad aseguradora creada por Grupo Mutualidad Abogacía con la adquisición de Mutualidad de la Ingeniería, implantando un modelo sólido e innovador, flexible y abierto, para adaptarse a las necesidades de previsión y de ahorro tanto de los ingenieros como del resto de colectivos y particulares.

Para esta nueva entidad desarrollamos su nueva área privada de clientes, abordando un proyecto completo end-to-end que cubre el análisis, diseño técnico e implementación de la solución.

La aplicación está disponible tanto versión web como aplicación móvil para Apple y Android, poniendo a disposición de todos los asegurados de servicios como el completo catálogo de productos disponibles, actualización de datos, nuevas contrataciones, seguimiento de productos contratados, contacto con asesores, etc.

Desde el punto de vista tecnológico usamos IONIC, Angular, .Net Core, Identity Server, CI/CD y Azure DevOps mientras que metodológicamente utilizamos metodologías Agile como Scrum y Kanban.

Proyectos

02/10/2022

/ , , , , , , , ,

Contratación de productos 100% online

Contexto

Los métodos de captación de nuevos mutualistas estaban limitados a operaciones presenciales, bien a través de las oficinas de Atención al Mutualista, o a través de la red de comerciales de la Mutualidad.

Además, el proceso de contratación requería una serie de validaciones previas y aportar determinada documentación obligatoria, que ralentizaba la gestión y retrasaba el alta efectiva del cliente, impidiéndole operar normalmente hasta el inicio del mes siguiente.

Retos

La Mutualidad de la Abogacía desea disponer de una plataforma de onboarding digital que permita a los no mutualistas contratar sus productos de manera sencilla, ágil y sin bloqueos durante el proceso.

La solución debe permitir realizar la contratación de forma online y sin fricciones, gestionando el alta del mutualista al momento para que pueda comenzar a operar a través del área privada sin esperas, y evitando al máximo la intervención del personal de la Mutualidad.

La solución

ITERIAM participa en la conceptualización de un proceso orientado al cliente, que elimine o mitigue todas las validaciones previas a la contratación asociadas a los procesos de suscripción internos.

Como parte la conceptualización de este proceso, se analizan diversas soluciones KYC (Know Your Customer) y de firma electrónica para encontrar las que mejor se adecúen al proceso y la forma de trabajo del área de Suscripción.

Estas soluciones deben dar solución a diferentes aspectos:

  • Identificación del cliente y la prueba de vida para evitar fraudes.
  • Identificación de PRP (Personas con Responsabilidad Pública) para la prevención de blanqueo de capitales (PBC).
  • Confirmación de la titularidad de la cuenta bancaria proporcionada.
  • Firma electrónica del contrato.

Una vez conceptualizado el proceso y seleccionadas las soluciones que mejor se adapten, ITERIAM realiza la integración y parametrización de la plataforma, adaptándola para ofrecer los productos de ahorro e inversión de la Mutualidad.

Resultados

La plataforma de onboarding digital ofrece la posibilidad de contratar un producto en menos de un minuto y con tan solo 5 pasos:

  • Identificándose con el DNI o pasaporte de forma síncrona, con la opción de incluir un selfie o vídeo para la prueba de vida y alcanzar el nivel más alto de seguridad, equivalente a la identificación presencial.
  • Configurando el producto en función de las condiciones determinadas por PBC, y ofreciendo a los usuarios simuladores online de su inversión.
  • Introduciendo la cuenta bancaria asociada al producto y validando su titularidad.
  • Opcionalmente, aportando la documentación requerida.
  • Firmando electrónicamente, cumpliendo con la regulación eIDAS, el condicionado particular del producto contratado.

La plataforma envía recordatorios en caso de abandonar el proceso antes de su finalización, permitiendo continuar el proceso donde se abandonó mediante la introducción de un código OTP.

Proyectos

02/10/2022

/ , , , , , ,

La mejor app para gestionar tu salud

Punto de acceso único a todos los servicios

Sanitas como empresa puntera en el ramo de salud con una cuota superior al 20% y referente en innovación en el sector evoluciona de forma continua su proyecto MiSanitas, canal de acceso para los asegurados a todos sus servicios digitales.

En 2021 el 12% de las consultas fueron digitales hasta alcanzar 782.000, con picos que superan las 4.200 diarias. Y todas esas consultas se realizan a través de MiSanitas.

Los asegurados tienen la posibilidad de realizar de forma sencilla y desde un punto único todas sus gestiones:

  • Pedir citas médicas, gestionarlas, reprogramarlas y cancelarlas
  • Buscar médicos, hospitales, centros médicos o clínicas dentales
  • Encontrar el centro de urgencia y especialista más cercano
  • Consultar el histórico de visitas al médico y las citas pendientes
  • Guardar médicos favoritos
  • Consultar informes médicos, analíticas, radiografías, etc.
  • Subir informes de otros centros para tener toda la información de salud en un solo lugar
  • Acceder a la tarjeta de salud digital (y de los hijos)
  • Hacer gestiones de la póliza, como solicitar reembolsos y autorizaciones
  • Ver los recibos y copagos en tiempo real
  • Consultar, modificar y personalizar el perfil de cada beneficiario
  • Cambiar la cuenta bancaria y periodicidad
  • Acceder a la biblioteca de consejos de salud

Escalamos los equipos de desarrollo

ITERIAM lleva cuatro años participando en este proyecto escalando el equipo del área de Digital de Sanitas mediante la conformación de squads ágiles siguiendo metodologías como Lean Startup o Scrum. Aportamos diferentes perfiles técnicos (product owners, scrum masters, líderes técnicos, UX, desarrolladores front-end, desarrolladores back-end, testers, maquetadores, etc.) y adecuamos la gestión de la demanda con un trato cercano, transparente y comprometido para cumplir con los objetivos de negocio.

La solución técnica se implementa tanto para web como app, realizando integraciones con todos los servicios digitales de la aseguradora mediante una arquitectura de microservicios y ofreciendo una magnífica experiencia de usuario al cliente.

Actualidad

10/02/2021

/ , , ,

Programar una skill de Alexa. Parte 2

Después de la introducción realizada en la primera parte del artículo, ¡vamos a a ponernos a «picar»!

Partimos de un problema real al que trataremos de dar solución con nuestra Skill:

«Carmen es una joven emprendedora que dirige una pequeña tienda de decoración y coleccionismo en Toledo (España). El Baúl del Abuelo vende desde artículos originales para dotar a tu casa de una personalidad única a artículos para coleccionistas tales como vajillas o documentos antiguos. En un afán por ofrecer un mejor servicio a sus clientes, Carmen ha pensado en desarrollar una Skill de Alexa con la que sus clientes puedan comprobar el horario de apertura de su establecimiento”.

Una vez planteado el problema, explicaremos detenidamente los pasos que Carmen tendría que llevar a cabo para desarrollar su propia Skill con esta funcionalidad.

Paso 1. Creación de la Skill de Alexa en la consola de desarrollo de Amazon

En este primer paso deberemos crear nuestra nueva Skill en la consola de desarrollo de Amazon y configurar el modelo de interacción para la interfaz de voz.

Para esto en primer lugar lo que tenemos que hacer es iniciar sesión en Amazon Developer (si aún no tienes cuenta puedes crearte una gratuita que te dará acceso a multitud de herramientas para desarrollar tus propias aplicaciones) y hacer uso de Alexa Developer Console, una interfaz gráfica de desarrollo que forma parte de la consola de desarrollo de Amazon.

Imagen 1: Dashboard general de Amazon Developer Console

Una vez dentro de la Alexa Developer Console, podemos ver la lista de Skills desarrolladas (en caso de no haber desarrollado ninguna la lista estará vacía). Para crear una nueva Skill hacemos clic en “Create Skill”:

Imagen 2: Con la consola de desarrollo de Alexa puedes controlar tus Skills y su estado


Pon nombre a tu Skill, selecciona el idioma deseado y elige uno de los cuatro tipos de modelo interacción disponibles:

  1. Custom (modelo de interacción definido por el usuario)
  2. Flash Briefing (modelo de interacción predefinido para feeds de noticias)
  3. Smart Home (modelo de interacción predefinido para aplicaciones Smart Home)
  4. Vídeo (modelo de interacción predefinido para aplicaciones de vídeo)

En este caso usaremos el de modelo de interacción personalizado (Custom Skill Model).

Imagen 3: Seleccionamos los parámetros que deseamos y hacemos click en “Create skill”


Paso 2. Definiendo el modelo de interacción de la Skill

El siguiente paso es configurar el modelo de interacción de nuestra Skill. Para ello, la Alexa Developer Console nos muestra cinco secciones:

  • Test
  • Distribution (Publicación)
  • Certification (Certificación)
  • Analytics (Análisis)

Utilizaremos cada una de estas pestañas de la barra de navegación para desplazarnos de un área a otra.

Imagen 4: El menú de navegación de la consola de desarrollo de Alexa

Empezaremos en la sección “Build” para diseñar un custom skill model para la Skill. La página de resumen del área de desarrollo se divide en tres secciones o columnas claramente diferenciadas. La Skill se crea utilizando la lista de comprobación del skill builder en la columna de la derecha y consta de cuatro pasos de configuración:

  • Seleccionar el nombre de la Invocación
  • Definir intenciones y ejemplos de sentencias
  • Crear un modelo
  • Seleccionar el endpoint del servicio web

Inicia uno de los pasos de la configuración haciendo clic en el botón correspondiente de la lista de comprobación de Skill Builder. De manera alternativa, puedes seleccionar áreas de configuración determinadas mediante la barra del menú situada en la columna de la izquierda.

En la columna central de la página encontrarás material informativo sobre Alexa Skill Development, así como un vídeo sobre el área seleccionada de la consola de Alexa Developer.

Imagen 5: La creación de Skills se lleva a cabo en el área “Build” utilizando la lista de verificación de Skill Builder


1. Seleccionamos el Invocation Name

Primero definiremos el nombre de invocación de la Skill de Alexa. El nombre de invocación es la expresión que utilizarán los usuarios para activar/comunicarse con tu Skill. El nombre de invocación puede ser el mismo que el nombre de la Skill, pero puede diferir si es necesario.

A la hora de definir el nombre de invocación debemos tener en cuenta los siguientes aspectos:

  • Utiliza un nombre de invocación con dos o más palabras.
  • Separa las palabras con espacios.
  • Utiliza sólo letras minúsculas.
  • Pon el nombre de invocación entre comillas si estás usando un apóstrofe o una abreviatura con un punto.
  • El nombre de invocación de la Skill no debe contener ninguna de las frases de inicio o palabras reservadas de Alexa, tales como launch(empezar), ask (preguntar), open(abrir), etc.

Para la Skill que estamos desarrollando, usaremos el siguiente Invocation Name: el Baul del Abuelo. Guardamos el nombre de la invocación haciendo clic en “Save Model” y hacemos click en “Customs” para volver a la vista general.

2. Definición de propósitos o intents

Con los intents definimos lo que un usuario de tu Skill puede decir, cuál es el propósito de su manifestación y cómo reacciona tu Skill ante ella. Cada Skill personalizada contiene cinco propósitos (intents) preestablecidos que deben implementarse más tarde, a los que, además, podemos añadir más según sea necesario. A continuación, explicamos cómo crear un custom intent:

● Pon un nombre a la nueva acción y haz clic en “Create custom intent”:

Imagen 6: En el caso de ejemplo que estamos siguiendo, definimos el nuevo intent GetOpeningTimetable

Seguidamente debemos definir las posibles formas con las que los usuarios pueden pedirle a la Skill que ejecute la acción vinculada a la intent. Introduce la frase en el campo de texto y haz clic en el signo más (+).

Imagen 7: En el ejemplo que estamos desarrollando, definimos las expresiones que los usuarios pueden decirle a la Skill para pedir la información sobre el horario de apertura y cierre de la tienda


De esta manera, la Amazon Developer Console aumentará a través de su IA los patrones de reconocimiento de habla que has definido. Sin embargo, esto solo es así si el sistema dispone de una base de datos suficientemente amplia, por lo que debes introducir al menos 8 ejemplos de expresiones con cada intent que elijas.

A continuación, pulsamos “Save Model” para crear el modelo y entrenarlo por aprendizaje automático.

3. Creación del modelo

Para crear el modelo debemos hacer click en “Build Model” y esperar a que la consola de desarrollo nos notifique que el modelo de interacción se ha creado con éxito.

Si después de crear el modelo queremos volver a hacer cambios en el nombre de invocación o los intents, solo tendríamos que reiniciar el proceso de compilación pulsando de nuevo “Build Model”.

4. Seleccionando el endpoint del servicio web

El paso 4 de la lista de comprobación de Skill Builder incluye la selección del endpoint del servicio web. Aquí hay dos opciones:

  • La lógica del programa de tu Skill de Alexa puede ser ejecutada como una función Lambda en la plataforma de computación en la nube de AWS
  • A través de tu propio servidor web.

Para simplificar el tutorial, dejaremos de lado la opción de alojar la lógica en nuestro propio servidor web, y explicaremos cómo hacerlo haciendo uso de las funciones Lambda de AWS.

Para ello activaremos la casilla de verificación de AWS Lambda ARN. ARN significa “Amazon Resource Name” (nombre del recurso de Amazon). Es un nombre único para un recurso AWS, como una función Lambda, por ejemplo.

Antes de poder enlazar con ARN a una función Lambda que contiene la lógica del programa de tu Skill, primero debes crearla en la consola AWS. En el siguiente punto del tutorial veremos cómo hacerlo.

Paso 3. Creación de la función Lambda de AWS

Basándonos en el modelo de interacción definido en el paso anterior, procedemos a crear una función Lambda AWS, que se ejecuta en la plataforma de Cloud Computing de Amazon y la cual incluirá la lógica de negocio de tu Skill.

Accede a tu cuenta AWS (Si no estás registrado, regístrate primero para obtener una cuenta de AWS gratuita) y selecciona “AWS Management Console” en “Mi cuenta”.

La consola de administración de AWS permite acceder y administrar los servicios web y recursos de computación de Amazon. Primero, asegúrate de que tu consola está configurada en la región donde quieres ofrecer tu Skill. (“EU (Ireland)” si deseas que tu funcionalidad esté disponible para los usuarios europeos). Para encontrar el producto AWS deseado, utiliza la función de búsqueda “Find services” y busca y selecciona el servicio lambda.

Una vez en la página principal del servicio, podemos ver un resumen de todas las funciones Lambda creadas. (Si todavía no has creado ninguna la lista estará vacía). Hacemos click en “Create function” para iniciar el proceso de configuración de una nueva función Lambda.

Las funciones AWS Lambda pueden crearse desde cero, utilizando un proyecto o partiendo de una aplicación proporcionada por AWS o por socios colaboradores en el repositorio AWS de aplicaciones serverless. Puesto que tenemos que recurrir a varias librerías de Alexa para la lógica del programa de nuestra Skill, es mejor partir de una plantilla que obtenemos de al seleccionar la opción “Examinar el repositorio de aplicaciones sin servidor”. Para el tutorial elegimos la plantilla “alexa-skill-kit-nodejs-factskill”.

Imagen 8: Seleccionamos la opción correspondiente para generar una función lambda usando la plantilla indicada.

Indicamos el nombre para nuestra aplicación y hacemos clic en “Deploy” para desplegar la aplicación serverless generada automáticamente en Cloud Formation.

En la nueva página a la que nos redirige, debajo de la sección de recursos, hacemos click al enlace para acceder a la función lambda vinculada a la aplicación automáticamente generada:

Imagen 9: En recursos de la aplicación se nos muestra la función automáticamente generada, al que podemos acceder haciendo click para amoldar el código a las necesidades de nuestra aplicación.


La máscara de configuración para la función se abre en una nueva pestaña, ya con valores establecidos por defecto (Permisos, roles, recursos, etc.)

Importante: En la ventana del código de la función lambda (que nos viene desarrollada por defecto al haber utilizado la plantilla), contiene la lógica de negocio específica para la acción que estamos desarrollando. Para personalizarla con el ejemplo que estamos siguiendo, eliminamos el código presente y lo sustituimos por el de nuestra aplicación pegando en su lugar el siguiente fragmento de código: https://jsfiddle.net/8tkz6dc5/

Conocer en detalle los conceptos de programación de Skills y el porqué de cada línea de código requeriría de un tutorial mucho más tiempo y lo dejamos para en otro tutorial, ya que no es el objetivo de este que estamos abordando. En caso de que queráis generar el código scaffolding para alguna Skill de Alexa de vuestro interés podéis hacer uso del Alexa Skills Code Generator para generar el nuevo código de nuestra Skill

Imagen 10: El Alexa Skill Code Generator es una herramienta que nos genera un código básico para nuestra Skill partiendo del Language Model JSON de nuestra Skill que podemos copiar/obtener en la Alexa Developer Console.

Paso 4. Conectar la función Lambda de AWS a la Skill

Para que los usuarios puedan dirigirse a nuestra Skill utilizando un altavoz inteligente, se requiere un enlace en los dos sentidos:

1. Definir el modelo de interacción de la Skill como disparador de la función Lambda

Para ello accedemos a la configuración de nuestra función Lambda en la consola de gestión AWS y selecciona la opción “Alexa Skills Kit” como desencadenador (Es probable que aparezca seleccionada si has seguido las indicaciones del tutorial y has utilizado la plantilla alexa-skill-kit-nodejs-factskill para el desarrollo de la función). Una vez seleccionado, el kit de funcionalidades de Alexa aparece ahora como un disparador en la representación gráfica de la función Lambda, pero requiere una configuración adicional.

Para ello necesitamos el ID de la Skill del modelo de interacción disponible en la sección de Endpoints de la Alexa Developer Console:

Copia la cadena de caracteres que aparece en “Your Skill ID” en el portapapeles y, a continuación, introdúcelo como el ID de cualificación de tu función Lambda:

Confirma la configuración haciendo clic en “Add” (Agregar) y guarda los cambios (“Save”).

2. Registrar la función Lambda como endpoint de la Skill

Para enlazar la función Lambda creada y desplegada, copiamos el ARN de la función (en la parte superior del panel de administración de nuestra función lambda):

Imagen 11: Seleccionamos y copiamos el ARN de la función Lambda

y lo pegamos en la configuración de endpoints de nuestra Skill Alexa, concretamente en el campo “Default Region”. Debes definir, al menos, un endpoint predeterminado para tu Skill. También puedes especificar endpoints alternativos para Norteamérica, Europa e India, así como para Oriente Próximo y Lejano. Guarda los ajustes con un clic en “Save Endpoints”

De esta manera, si un usuario interactúa con la Skill de Alexa que hemos desarrollado, se envía una petición POST al endpoint del servicio web predeterminado, en este caso, a la función Lambda vía ARN.

Paso 5. Probar la Skill

Dentro de la Alexa Developer Console tenemos la sección “Test”, que ofrece un entorno de pruebas completo para Skills, incluyendo un simulador de Alexa con salida de voz. De forma predeterminada, el entorno de pruebas está desactivado para las Skills de Alexa recién creadas. Actívalo cambiando el menú desplegable de “Off” (desactivado) a “Development” (desarrollo).

Para probar la Skill, llama a tu nueva Skill Alexa usando la invocación y prueba un comando de voz/texto que corresponda un intent contemplado previamente.

La Skill que estamos desarrollando como ejemplo puede iniciarse con la invocación “Alexa, abre el Baúl del Abuelo”. Alexa responde con el welcomeOutput definido en la lógica del programa:

“Bienvenido a el Baul del Abuelo, ¿en qué le puedo ayudar?”

Si hacemos una pregunta que corresponda a la intención definida en el modelo de interacción, siguiendo nuestro ejemplo, obtendremos la siguiente respuesta:

"¿A qué hora abre la tienda? -> El horario de apertura de la tienda es de 10 de la mañana a 8 de la tarde”

Como puede observarse, el acceso a la lógica del programa ha funcionado y Alexa entiende nuestra pregunta y nos da la información que necesitamos. La entrada y salida que ha procesado el servicio de habla de Amazon en la consulta se muestra en la ventana Skill I/O en formato JSON:

Alternativamente, es recomendable probar la Skills en los dispositivos conectados a tu cuenta antes de publicarlas y lanzarlas al market.

Paso 6. Validación y publicación de la Skill

Una vez probada la Skill, puedes ponerla a disposición de otros usuarios si la encuentras satisfactoria y útil. Para ello debes ir a la sección “Distribution” y proporcionar toda la información necesaria para su publicación. Rellena todos los campos obligatorios bajo “Skill Preview” (vista previa de habilidades), “Privacy & Compliance” (Privacidad y cumplimiento) y “Availability” (disponibilidad).

En “Privacidad y cumplimiento”, especificaremos si los usuarios pueden utilizar funciones de pago dentro de tu Skill, si recopilas datos personales de los usuarios, si tu Skill está dirigida a usuarios menores de 13 años o si incluye publicidad.

En “Disponibilidad”, define las restricciones para la disponibilidad de tu Skill. ¿Debería estar disponible para todos los usuarios o solo para determinadas organizaciones? ¿Deben realizar las pruebas beta determinadas personas?, y ¿En qué países y regiones te gustaría publicarla?

En último lugar, guarda tus datos haciendo clic en “Save and continue” (guardar y continuar).

Después de haber guardado tus datos de publicación”, serás redirigido automáticamente al área “Certification” (certificación). La consola Alexa Developer comprueba tus datos y te pide, si es necesario, que revises la información incorrecta o que proporciones los datos que faltan.

Si la información introducida es correcta, puedes continuar con una prueba de funcionamiento haciendo clic en “Run” (ejecutar). Dependiendo del alcance de tu proyecto, el texto de la función puede tardar unos minutos en completarse. Si el informe de prueba muestra errores, tienes la opción de volver al área determinada, corregir el error y realizar una nueva prueba de funcionamiento.

Una vez completado con éxito la prueba funcional, estará lista para que Amazon valide y revise la Skill. Haz clic en “Submit for Review” (enviar para revisión) para certificar tu Skill. Una vez completada la revisión, recibirás un correo electrónico en la cuenta asociada a tu cuenta de desarrollador de Amazon. Existen básicamente dos escenarios posibles:

  • Tu Skill se ha certificado con éxito: En este caso, se te comunicará por correo electrónico cuándo se espera que tu Skill se publique en la Alexa Skills Store.
  • Tu Skill no ha sido certificada: En este caso, tu Skill no ha sido certificada: en este caso, Amazon ha identificado problemas durante el proceso de certificación, adjuntando un informe detallado de los cambios que se requieren. Una vez hechos los ajustes, puedes volver a presentar tu Skill.

En la vista general de Skills de la Alexa Developer Console puedes ver el estado de todas tus Skills:

  • In development (Skill en desarrollo)
  • Certification (Skill en proceso de certificación)
  • Live (Skill disponible para los usuarios a través de la Alexa Skills Store). Cuando tu Skill está en el estado “Live”, no podrás ajustar su configuración posteriormente. Además de la versión en producción, en la consola de desarrolladores está disponible una versión para desarrolladores de la Skill publicada, que puede ser revisada, actualizada y mejorada independientemente de la original. Una vez que Amazon valide y certifique la nueva versión de tu Skill, esta reemplazará a la versión anterior en producción y creará automáticamente una nueva versión de desarrollo

Actualidad

09/02/2021

/ , , ,

Programar una Skill de Alexa. Parte 1

Cuando hablamos de un altavoz inteligente o asistente de voz, estamos haciendo referencia a un altavoz conectado a Internet a un servicio de voz basado en nube que recibe comandos a través de una interfaz de voz y, por lo tanto, permite hacer uso de servicios en línea basados en audio y permiten controlar dispositivos conectados a través de Wifi o Bluetooth.

El servicio de voz de Amazon (Alexa) ofrece ya de serie varias funciones básicas tales como la reproducción de música, escuchar noticias, recibir informes de tráfico, predicciones meteorológicas, etc. Además, pueden instalarse otras funciones extra, las llamadas Skills o funcionalidades de Alexa, disponibles en la Alexa Skills Store, la cual actúa como un marketplace de aplicaciones o funcionalidades extras para los usuarios.

¿Qué es una Skill de Alexa?

Las Skills de Alexa son programas que pueden instalarse en todo dispositivo inteligente que haga uso del servicio de voz de Alexa y que sirven para ampliar la gama de funciones básicas que este servicio ofrece. Más a bajo nivel, la arquitectura de una Skill de Alexa sigue un modelo cliente-servidor, donde cualquier dispositivo que soporte el servicio lingüístico de Alexa, (ya sea un altavoz inteligente Amazon Echo o un horno debidamente equipado), actúa como el cliente o frontend de la Skill, y donde el backend se ejecuta en su propio servidor o en AWS Lambda, un servicio de procesamiento de datos desarrollado por Amazon basado en arquitectura serverless ofrecido por AWS (Amazon Web Services).

Puedes desarrollar tus propias Skills de Alexa haciendo uso del Alexa Skills Kit y el AWS Lambda.


Alexa Skills Kit: Requisitos para el desarrollo

Las Skills de Alexa se desarrollan utilizando el Alexa Skills Kit (ASK), disponible gratuitamente una vez hayas creado tu cuenta de desarrolladores de Amazon.

El Alexa Skills Kit (ASK) es una colección de APIs, herramientas, documentación y ejemplos de código que te permite crear tus Skills de Alexa.

Por otro lado, si no deseas encargarte de alojar tú mismo la lógica del programa de tu Skill de Alexa en tu propio servidor, necesitarás una cuenta AWS que te proporcione acceso al servicio en la nube de AWS Lambda.

Después de estos conceptos pasa a segunda parte del artículo para realizar los 6 pasos que nos permitirán tener disponible nuestra Skill:

  • Paso 1. Creación de la Skill en la consola de desarrollo de Amazon
  • Paso 2. Definiendo el modelo de interacción de tu Skill
  • Paso 3. Creación de la función Lambda de AWS
  • Paso 4. Conectar la función Lambda de AWS a la Skill
  • Paso 5. Probar la Skill
  • Paso 6. Validación y publicación de la Skill

Actualidad

26/10/2020

/ , , , ,

Diferencias entre DDD, Event Sourcing y CQRS

Hace unas semanas mi compañero Gustavo Caro hacía un repaso de cómo han ido evolucionando las arquitecturas de aplicaciones y en este artículo voy a intentar resolver algunas dudas que surgen cuando nos enfrentamos a arquitecturas orientadas a eventos.

Las arquitecturas orientadas a eventos han crecido en popularidad en los últimos años, y aunque no son un concepto nuevo ya que existen referencias a la programación dirigida por eventos que se remontan a los 70s, sí que están ganando importancia debido a las últimas tendencias en ingeniería del software.

Empecemos por el principio, una arquitectura orientada a eventos (EDA del inglés Event-Driven Architecture) es un patrón distribuido de arquitectura donde diferentes actores se comunican mediante eventos en base a roles: productores y consumidores.

Utilizando este tipo de arquitecturas, las empresas implementan sistemas flexibles que se pueden adaptar a toma decisiones y cambios en tiempo real. Los eventos se capturan a medida que ocurren y permite que productores y consumidores de eventos compartan información sobre el estado y la respuesta en tiempo real.

Los componentes en este tipo de arquitectura están altamente desacoplados lo que facilita escalar horizontalmente. También hay que remarcar el hecho de que añadir nuevos consumidores es sencillo, ya que las integraciones no son punto a punto. En la parte negativa está el hecho de que, debido a la propia naturaleza desacoplada de la arquitectura, hay que ser cuidadoso con los componentes que formen parte y las dependencias entre ellos.

Existen múltiples conceptos alrededor de este tipo de arquitecturas que a simple vista pueden parecer similares, pero te das cuenta de que no lo son cuando indagas un poco más: eventos de dominio, Event Sourcing, CQRS…

En este artículo voy a intentar aclarar las diferencias entre esos conceptos. ¡Empecemos!

Eventos de dominio

En DDD (del inglés Domain-Driven Design), los eventos de dominio se usan para describir hechos de negocio que ocurren dentro del dominio. Estos eventos son relevantes dentro del bounded context pero también para otros bounded context, permitiendo integración entre diferentes dominios.

Una importante característica de estos eventos es que deben contener un alto valor semántico expresado en el lenguaje que hablen los expertos de dominio.

Si quieres profundizar en DDD te recomiendo el siguiente artículo.

Event Sourcing

Event Sourcing hace referencia a sistemas donde el estado de la aplicación completa es almacenado como una secuencia de eventos. Aquí, el termino evento se refiere al “cambio de estado”, no es solamente una “notificación”.

Las aplicaciones persisten los eventos en un Event Store, que es una base de datos de eventos. En lugar de almacenar el estado actual de la aplicación directamente campos de una tabla en la base de datos, los eventos son almacenados cronológicamente y pueden ser usados para reconstruir el estado actual en memoria si fuera necesario.

Como ya nos decía Martin Fowler en un post original del año 2005: “Event Sourcing ensures that all changes to application state are stored as a sequence of events”

CQRS

Command Query Responsability Segregation (CQRS) es un patrón por el cual se tienen estructuras de datos separadas para leer y escribir información. CQRS no tiene que ver estrictamente con eventos, ya que se puede implementar sin hacer uso de ellos, pero es bastante común que se combine CQRS con Event Sourcing.

CQRS Diagram by Martin Fowler

La justificación de usar CQRS es que, en dominios complejos, un modelo único de lectura y escritura puede resultar muy complicado y se puede simplificar separando los modelos. Este hecho puede resultar determinante si los patrones de accesos difieren de manera considerable, como por ejemplo muchas lecturas y muy pocas escrituras.

Conclusiones

Como hemos revisado en este artículo , las arquitecturas orientadas a eventos ofrecen numerosas ventajas, pero en contrapartida los patrones a seguir son algo más complejos que en otras arquitecturas y por tanto hay que pensar bien cuándo conviene hacer uso.

Una herramienta que nos puede ser de gran ayuda en este tipo de arquitecturas es un catálogo de eventos. A medida que la aplicación crece y el número de componentes es mayor, el flujo entre los componentes se hace más difícil de seguir, así como sus interacciones. En este punto es donde un catálogo de eventos cobra importancia.

En relación al tipo de eventos (domino / event sourcing), es importante tener una idea clara del propósito y semántica que cada uno lleva, y aunque no son exclusivos y en algún punto pueden tener la misma información, es una buena practica mantenerlos separados.

En general este tipo de arquitectura puede resultar muy útil y aunque quizás sea complicado implementarlo en un sistema completo, sí que su uso en partes específicas del sistema puede ofrecernos la flexibilidad y desacoplamiento que podemos necesitar.

Actualidad

04/08/2020

/ , , , ,

La evolución de las aplicaciones: camino a los microservicios

La evolución de las aplicaciones siempre ha estado estrechamente relacionada con la evolución tecnológica y las necesidades de los usuarios y las empresas.

Del mismo modo que las organizaciones empresariales evolucionan en la forma de hacer las cosas, las aplicaciones informáticas deben seguir el mismo camino para lograr su único objetivo, satisfacer dichas necesidades y servir al usuario de la forma más eficiente. Es como un ciclo que se retroalimenta constantemente:

Esta evolución ha obligado a un cambio en los sistemas, adaptando las infraestructuras que ofrecen la disponibilidad de dichos servicios y aplicaciones, de tal forma que los usuarios que los consumen lo puedan hacer de una forma más eficiente, segura y además en remoto, es decir, disponible en internet.

Un ejemplo sencillo para mostrar que adaptarse en esta evolución es obligatorio, sería una aplicación de mensajería que tiene un éxito inesperado. Es cierto que el aumento de demanda no es sino el principio del éxito, pero también puede ser el principio del fracaso si la infraestructura que soporta dicha aplicación de mensajería no está preparada para soportar tanta demanda. En este caso, la aplicación está condenada al fracaso.


Aplicación monolítica

La característica principal de estas aplicaciones es que hacen uso de una base de código única para sus servicios y funcionalidades. Es decir, la aplicación es «responsable» de todas las tareas necesarias para realizar una determinada función.

Este tipo de aplicaciones se destacan por combinar la interfaz del usuario y la capa de acceso a los datos en el mismo programa y alojarlos en la misma máquina (o nodo).

Una de las características para tener en cuenta es el llamado escalado vertical. Si el servidor que aloja la aplicación recibe un aumento en las peticiones de usuario, es posible que los recursos existentes en la máquina sean insuficientes. La única posibilidad es aumentar los recursos en dicha máquina (RAM, espacio en disco, etc.) dentro de sus límites.

Goza de una arquitectura sencilla, puesto que toda la aplicación se aloja en el mismo nodo, donde las comunicaciones entre las distintas partes de la aplicación siempre son de forma local.

Debido a su arquitectura, las interferencias entre los componentes de la aplicación son más delicadas, y un fallo en una de sus partes puede poner en evidencia toda la aplicación.

Otra desventaja, la tenemos en la complejidad de las actualizaciones, que pueden afectar a la disponibilidad de todo el sistema durante un período de tiempo durante su despliegue.

Por el simple hecho de tener una infraestructura estática y fija por años, el mantenimiento es más costoso y es más difícil evolucionar de forma eficiente a las nuevas necesidades del mercado.

En definitiva, aunque son fáciles de desarrollar, una aplicación que aglutina toda su funcionalidad no es la mejor opción si queremos aspiraciones crecimiento complejas, más usuarios, más desarrolladores, etc.


Aplicación distribuida

Su principal cometido es tener la aplicación disgregada en múltiples nodos, dando la posibilidad de que en cada nodo exista un componente de la aplicación o un mismo componente replicado en varios nodos.

Esta arquitectura es bastante más compleja y difícil de gestionar y administrar que una aplicación monolítica. De hecho, se deben utilizar numerosas herramientas que antes no eran en absoluto necesarias. Pero esta idea de tener la aplicación distribuida en varios nodos fue un punto de inflexión, que dio lugar a conceptos muy importantes y ha favorecido de forma incuestionable la existencia de aplicaciones mucho más robustas, escalables, eficientes y seguras.

Uno de los grandes conceptos que introduce este tipo de aplicaciones es el escalado horizontal. Es decir, cuando por cuestiones de demanda los recursos actuales ya no son suficientes, en vez de aumentar los recursos de un nodo (escalado vertical), lo que se hace es incrementar el número de nodos dedicados al procesamiento de ese componente demandado. Esto es una gran ventaja ya que el límite de recursos ya no será el soportado por un nodo, sino el soportado por tantos nodos como tengamos en nuestra arquitectura.

Otro gran concepto que surge, aunque todavía no de forma automática y madura, es la llamada elasticidad. Es decir, al igual que se aumentan el número de nodos dedicados para soportar un aumento de demanda, se pueden reducir si la demanda disminuye y dejarlos disponibles para otros procesos. Este concepto contribuye a un reparto de recursos más eficiente.

La seguridad y la robustez mejoran notablemente, ya que es más probable que los problemas de seguridad de un nodo sean cercados en ese nodo, no poniendo en riesgo toda la aplicación si alguno de ellos se pone en evidencia.

Otra gran ventaja con respecto a las aplicaciones monolíticas es que las actualizaciones no conllevan desplegar toda la aplicación ya que, en este caso el despliegue será a nivel de nodo. El mantenimiento es mucho más fácil y la durabilidad de la aplicación será mayor por la facilidad de adaptación a los cambios.

Todas estas características hacen que las aplicaciones distribuidas sean ideales cuando adecuar los recursos que se deben utilizar en función de la demanda sea clave.


Arquitectura SOA

Esta arquitectura fue la que insistió en la utilización de aplicaciones distribuidas y orientadas a servicios.

La idea fue hacer que esos servicios fueran independientes, y las interacciones entre ellos se hicieran bajo ciertos protocolos estandarizados de comunicación, como WSDL y SOAP.

Esta independencia hacía posible que servicios desarrollados por diferentes tecnologías, pudiesen comunicarse entre sí, sin ningún problema.

Debido a que los servicios son más independientes, cambios en ciertos componentes de la aplicación no alteraban al resto, simplemente debían seguir cumpliendo los criterios de comunicación establecidos.


Cloud Native (Cloud Computing)

La arquitectura SOA está más enfocada a la arquitectura de la aplicación. Cloud Native se enfoca más en la arquitectura del sistema que alberga, distribuye y ofrece las aplicaciones.

Este punto de vista, lo que ofrece es básicamente el uso de recursos en la nube bajo demanda automatizada. Es decir, va a existir una elasticidad gestionada de forma automática por el sistema en la infraestructura dedicada a cada una de las aplicaciones que distribuyen. Consiguiendo que el uso de los recursos sea lo más eficiente posible.

Estas infraestructuras dinámicas dedicadas hacen posible que las aplicaciones sean resilientes antes situaciones adversas, por ejemplo, por demanda extrema, errores hardware, etc.


Arquitectura de microservicios

No existe una definición formal pero básicamente es una evolución de SOA y está orientada al trabajo con servicios muy pequeños e independientes.

El objetivo es aislar los distintos componentes de una aplicación con el fin de que cada uno sea una aplicación por sí misma.

Otra de las diferencias con SOA es la comunicación entre los servicios; Ya no sería con servicios web WSDL o SOAP, sino vía HTTP con API-REST.

Muchos beneficios suelen asociarse a los Microservicios, pero tres de los más importantes son: una entrega más rápida, escalabilidad mejorada y una mayor autonomía.

Los microservicios son el facilitador de una mayor agilidad en términos de adaptación a los cambios del mercado. Su filosofía es compatible y está directamente relacionada con procesos ágiles de desarrollo: entrega continua. Es decir, el mantenimiento de la aplicación conlleva modificaciones en los microservicios, pudiendo llevar a cabo muchas subidas a producción en un corto período de tiempo de forma independiente (continuous deliverydeploymentimprovement).

Esto aumenta la agilidad del software porque cada microservicio se convierte en una unidad independiente de desarrollo, implementación, operaciones, versiones, y escalamiento.

En realidad, aquí el término escalabilidad es algo ambiguo. Podría referirse, por ejemplo, a la escalabilidad del tiempo de ejecución del sistema, a su adaptabilidad (a un costo razonable), o a los cambios en el número de usuarios que acceden a él. O también podría referirse a poder aumentar el número de microservicios sin interferencias con los otros o a la capacidad del proceso de desarrollo para acomodar a muchos desarrolladores trabajando en paralelo.

Lo que está claro es que, con los microservicios la unidad a escalar es el servicio. Por tanto, cada uno de ellos son una unidad autónoma que pueden ser desarrollados, desplegados y operados por un equipo diferente. Por eso, suelen implementarse sobre contenedores: un microservicio en un nodo.

En estos casos, es de máxima importancia sincronizar una responsabilidad compartida entre el desarrollador y el sistema que lo alberga. Esta es la base de la filosofía DevOps.

La antigua filosofía introducida hace décadas por el principio «Divide y vencerás» ha sido puesta en práctica en innumerables ocasiones: en los algoritmos informáticos, en el envío de pequeños paquetes de datos en el protocolo IP, en la agrupación de las tareas en 7 capas en la arquitectura de red OSI, etc.

Es curioso como la misma filosofía se sigue adoptando en las infraestructuras tecnológicas actuales. Divide and win my friend 🙂



Nota. Los diagramas de las arquitecturas monolítica y de microservicios pertenecen al blog de Chris Richardson. Te animo a que lo visites para leer sus interesantes artículos.

Actualidad

08/07/2020

/ , , , , ,

Cuatro formas de automatizar con estilo usando PowerShell

PowerShell es la línea de comandos ubicua de Microsoft. Con los años, este lenguaje lanzado en 2006 se ha convertido en mi principal herramienta para moverme por el “Universo Microsoft”.

Todo lo puede, para todo sirve y siempre está a mano, como el destornillador del Doctor Who. Y aunque es cierto que en los últimos tiempos Microsoft ha abierto el abanico a otras líneas de comandos, como Azure CLI (AZ) para Azure o Bash para Azure y WSL, PowerShell aún sigue teniendo una posición muy sólida en el ecosistema, e incluso mejor desde el lanzamiento en 2016 de la versión multiplataforma (Mac OS, Linux): PowerShell Core.

Pero vayamos al grano. Puede que tu día a día sea una sucesión de scripts, probablemente rápidos, pero ¿qué pasa cuando son largos? ¿Qué haces si tienes que esperar a completar una o varias tareas que pueden llevar 10, 20 o 60 minutos?

Para estos casos, he depurado estrategias de notificación para ignorar el script hasta que algo relevante suceda. Esto es particularmente útil cuando tienes varios scripts pendientes, u otros proyectos, o una video llamada en curso. 😉

Las comparto en este artículo, sin un orden en particular, para que puedes aprovecharlas en tu día a día, por utilidad, o por mera diversión: 3 estrategias de notificación y 1 sorpresa.


8 bits

En PowerShell puedes implementar avisos sonoros como los de las videoconsolas de 8 bits de los años 80. Así identificas de oído si tu script ha llegado a alguna etapa importante.

Es como un Write-Host sónico. Además, la implementación es super sencilla:

[console]::beep(500,300)

El ejemplo muestra cómo reproducir un sonido de 500 hertzios y 300 milisegundos. Más hertzios, más agudo. Más milisegundos, más duración.

Fun Fact: ¿Sabías que 440 hertzios es la frecuencia que se emplea como sonido de referencia para afinar de instrumentos como el piano o el violín? ¡Puedes afinar tu guitarra o violín usando cualquier PC con Windows!

Por supuesto puedes jugar con las duraciones y frecuencias (aunque no del todo con el ritmo) para formar diferentes «códigos» o incluso melodías famosas. Por ejemplo:

Star Wars – Imperial March, de John Williams

[console]::beep(440,500)
[console]::beep(440,500)
[console]::beep(440,500)
[console]::beep(349,350)
[console]::beep(523,150)
[console]::beep(440,500)
[console]::beep(349,350)
[console]::beep(523,150)
[console]::beep(440,1000)
[console]::beep(659,500)
[console]::beep(659,500)
[console]::beep(659,500)
[console]::beep(698,350)
[console]::beep(523,150)
[console]::beep(415,500)
[console]::beep(349,350)
[console]::beep(523,150)
[console]::beep(440,1000)

Visto en: Music from the Command Line:Performed by Powershell

Los Vengadores – Assemble, de Alan Silvestri

[console]::beep(440,1800) [console]::beep(440,200) [console]::beep(440,600) [console]::beep(660,100) [console]::beep(580,1200) [console]::beep(520,800) [console]::beep(490,800) [console]::beep(440,1200)

[Nota: Melodía sacada de oído por mí]

Juegos de Guerra (1983)

Los veteranos del software como yo, recordareis la película «Juegos de Guerra» protagonizada por Matthew Broderick. En ella una IA llamada WOPR trataba de iniciar una guerra termonuclear por culpa de una red mal segmentada y un hacker. Hay muchas lecciones sobre ciberseguridad e IA en esa película.

Una de las cosas que recuerdo es la voz de la WOPR. Pero desde hace décadas, con el API de voz de Windows (si lo tienes configurado) puedes tener algo parecido en tus scripts usando estos comandos:

$text = "Extraño juego, la única manera de ganar es no jugar."
$object = New-Object -ComObject SAPI.SpVoice
$object.Speak($text) | Out-Null

[Referencia friki obligada: https://www.youtube.com/watch?v=FboBAFiLDbI]

Por supuesto puedes jugar con bastantes parámetros como la velocidad, otras voces e idiomas. Pero eso añade complejidad al script.

En resumen, puedes emitir información compleja y descriptiva de lo que va sucediendo durante la ejecución de tus scripts sin tener que prestarle atención. O leer archivos de texto de forma automática. O gastar bromas.

Este API tiene muchas posibilidades y PowerShell lo pone fácil. ¿Podrá integrarse con Alexa o Siri?


Alertas en Windows 10

En Windows 10 hay dos formas típicas de notificar algo al usuario: mediante un cuadro de diálogo y mediante el centro de notificaciones.

Para lanzar un molesto, pero efectivo cuadro de diálogo, no tenemos más que poner:

Add-Type -AssemblyName PresentationFramework #Ensamblado para la sesión.
[System.Windows.MessageBox]::Show('CPE1704TKS ?')

Esto nos permite explorar nuevas opciones de control de nuestros scripts, como por ejemplo recibir una notificación sobre si continuar una acción, o no, en lugar de solamente notificar algo.

Para ello tenemos una amplia gama de opciones de MessageBox como:

$msgBoxInput = [System.Windows.MessageBox]::Show('¿Una partidita de ajedrez?','WOPR','YesNoCancel','Error')
Write-host "Profesor Falken dijo:"$msgBoxInput

Pero también podemos emplear elementos de consola más avanzados como el Out-GridView con la opción -PassThru:

$myList = @("Tic, tac, toe","Chess","Global thermonuclear war")
$selection = $myList | Out-GridView -Title "Select a game" -PassThru
Write-host "Lets play:"$selection

Por último, en Windows tenemos algo más moderno y algo menos intrusivo como el centro de notificaciones, que funciona como el de un móvil y que no interrumpirá nuestro flujo de trabajo o reunión en curso. Aunque parece una buena opción, la generación de notificaciones es bastante más compleja y requiere de procesos adicionales para no acabar llenando de basura la barra de tareas.

Add-Type -AssemblyName System.Windows.Forms #Ensamblado para la sesión.

$global:balloon = New-Object System.Windows.Forms.NotifyIcon
$path = (Get-Process -id $pid).Path
$balloon.Icon = [System.Drawing.Icon]::ExtractAssociatedIcon($path)
$balloon.BalloonTipIcon = [System.Windows.Forms.ToolTipIcon]::Info
$balloon.BalloonTipTitle = "General Kenobi says..."
$balloon.BalloonTipText = 'Hello there!'
$balloon.Visible = $true
$balloon.ShowBalloonTip(5000)

Resumiendo, Windows y PowerShell nos ofrecen muchas opciones para gestionar notificaciones nativas, con relativa facilidad.


Epílogo: Like a boss

Como hemos podido comprobar, los scripts largos no tienen por qué ser aburridos, ni consumir tu atención y tu valioso tiempo. Basta con echarle algo de imaginación y emplear la vasta lista de posibilidades que ofrece PowerShell para facilitar nuestro trabajo.

Por mucho hype que haya con C#, JavaScript o Go, a menudo PowerShell puede ser la solución más rápida, compatible y con mejor TCO, para resolver problemas o automatizar procesos.

Y hasta aquí este artículo. Me despido con un meme en PowerShellNever gonna give you up, de Rick Ashley.

Que por supuesto puedes incluir en tus scripts. Pero ojo con el volumen del audio al ejecutar esto:

iex (New-Object Net.WebClient).DownloadString("http://bit.ly/e0Mw9w")