
Habilitar análisis de cobertura de código en tu pipeline de Azure Devops
Post en el que enseño como añadir un análisis de cobertura de código a tu pipeline de Azure Devops
Post en el que enseño como añadir un análisis de cobertura de código a tu pipeline de Azure Devops
Post en el que enseño como poner health checks para servicios externos en tu API .NET Core
Post que explica como añadir Azure Redis cache a tu API en .NET Core
En este post os enseño como guardar las keys y cadenas de conexión de vuestra API en Azure Key Vault
Pequeño truco para obtener el GUID de un feed de Azure Devops en una pipeline.
Este post hago una inctroducción al servicio de mapas Azure Maps
Post en el que comento como solucionar un error a la hora de generar un paquete nuget desde una pipeline de Azure Devops
En este post se explica como crear un custom extractor para Azure Data Lake Anlytics y poder usarlo desde Azure Data Factory.
En el post anterior vimos como extraer y filtrar datos de un fichero TSV. Para trabajar con otro tipo de ficheros, como, por ejemplo, un json o un pdf, hay que utilizar custom extractors. En este post vamos a usar un proyecto ya creado, el cual compilaremos y, usaremos las assemblies creadas para hacer una extracción custom de datos en Azure Data Factory de un json. En el próximo post, crearemos un proyecto desde cero con un extractor para tratar datos de un fichero PDF.
En posts anteriores, vimos que era un pipeline y una actividad. Una de las actividades disponibles en Azure Data Factory es la de ejecución de un U-SQL script de Azure Data Lake. Hoy veremos como hacer una extracción y transformación de datos en Azure Data Factory con Azure Data Lake Analytics.