Mirroring con Microsoft Fabric: La solución integrada para sincronizar datos hacia Onelake?

Visitas: 28

Mirroring dentro de MS Fabric, pretende ser una solución integrada de replicación de datos que nos permite llevar los datos de varios sistemas fuente hacia el repositorio de Fabric (OneLake).

Es una solución de bajo coste y baja latencia, y al momento de este blog nos permite trabajar con origines de datos como Azure Database, Azure Cosmos DB y Snowflake. Aunque Microsoft seguramente incorporará otros cuantos más en un futuro cercano.

Una vez replicados los datos, éstos se almacenarán en un formato consultable dentro del OneLake y luego podrán ser utilizados por los distintos servicios de Fabric, como por ejemplo en un Notebook de Spark, dentro de Ingeniería de datos mediante T-SQL, o a través de reportes de Power BI con modelos semánticos.

La idea detrás de este feature, es la de simplificar el proceso de extraer los datos de los sistemas fuentes con una solución “SaaS” como todo lo que existe dentro del ecosistema de Fabric. Es decir, que mediante pocos Clicks y configuraciones podemos tener los datos de nuestras fuentes replicados y listos como tablas Delta Parquet.

Fig. 1. Diagrama de Fabric Database Mirroring para Azure SQL Database.

La replicación de Mirroring crea tres elementos de un Workspace de Fabric:

  • La base de datos replicada. Mirroring gestiona la replicación de datos en OneLake y la conversión a Parquet.
  • Un SQL Endpoint para trabajar lenguaje y herramientas SQL.
  • Un Modelo semántico default.

Cada base de datos replicada posee un Endpoint de SQL autogenerado que proporciona una experiencia analítica sobre las Tablas Delta creadas por el proceso de Mirroring.

Los usuarios podrán utilizar comandos T-SQL únicamente para consultar datos, ya que éstos son una copia de sólo lectura.

Aunque, si se podrán crear vistas SQL, TVFs (Table-valued Functions) en línea y procedimientos almacenados para encapsular su semántica y lógica de negocio en T-SQL.

Y tal vez lo más rico que se podrán consultar estos datos en otros Warehouses y Lakehouses en el mismo espacio de trabajo.

Todo esto puede ser realizado mediante el editor de consultas SQL de Microsoft Fabric, y tambien con otras herramientas que puedan consultar el Endpoint de SQL, incluido por supuesto SQL Server Management Studio, Azure Data Studio e incluso GitHub Copilot.

Habilitando Microsoft Fabric Mirroring Paso a Paso

Como primer paso para utilizar este feature, se debe primero habilitar la opción en el portal de Administración a nivel de Tenant. Esta opción puede estar limitada a Grupos de Seguridad específicos o bien para toda la organización.

Ref. Enable Mirroring – Microsoft Fabric | Microsoft Learn

Como punto importante, la disponibilidad del feature puede demorar algunos minutos hasta que quede activado.

Adicionalmente si no queremos dejar habilitado este feature a nivel deTenant, dado que aún se encuentra en Preview, podemos  habilitarlo únicamente a nivel de capacidad.

De esta manera podríamos limitar esta experiencia para un pequeño grupo de usuarios que quisieran probar esta capacidad. Esto lo podemos configurar a nivel de Capacidad, habilitando la opción de hacer “override” de la configuración a nivel de Tenant.

Replicar datos Microsoft Fabric Mirroring

Una vez habilitada esta característica, ya sea tanto a nivel de Tenant o bien a nivel de Capacidad, tenemos que configurar la réplica de datos desde alguna de las fuentes soportadas.

Estas fuentes por el momento pueden ser las siguientes:

  • Azure SQL Database
  • Azure Cosmos DB
  • Snowflake

Importante: Al momento de este Preview, Mirroring  no puede trabajar con conexiones de Red privadas de Azure SQL Database o Endpoints privados de CosmosDB.

Ref. Microsoft Fabric Enable Mirroring | Microsoft Learn

Ref. Microsoft Fabric mirrored databases from Azure Cosmos DB (Preview) | Microsoft Learn

Para comenzar la configuración, desde la experiencia de DataWarehouse, deberíamos poder hacer click en alguna de las opciones de Mirroring:

En la siguiente pantalla, dependiendo de la fuente seleccionada, se deberá configurar la conexión y que tablas vamos a replicar.

Una vez generada la conexión con las credenciales, tenemos que configurar que Tablas vamos a replicar. Por defecto, nos aparece la opción de replicar toda la base de datos pero podemos cambiar y seleccionar tablas y/o vistas en forma individual.

En este punto se pueden ver que algunas tablas o columnas no permiten ser replicadas. Esto se produce porque éstas contienen poseen de tipo de datos o features no soportados.

Para ver una lista completa de Limitaciones de Tipos de Datos no soportados se pueden ver los siguiente enlaces:

Y finalmente luego de conectar nuestra fuente, podremos ver que la replicación comienza en forma automática, para lo que debemos esperar algunos minutos para ver la primera sincronzación.

Una vez que el proceso haya comenzado, se habilitará la opción de Monitoreo en donde podremos ver el estado de la replicación para cada uno de los objetos como así tambien la cantidad de Registros copiados o bien si hay algún error.

Como vemos a simple vista, es un proceso simple y que requiere pocas configuraciones y que nos permite rápidamente replicar fuentes de datos hacia nuestro entorno de Fabric.

En nuestro workspace podemos ver que se ha creado un nuevo Endpoint de SQL y un modelo semántico default de nuestra base de datos en Mirroring:

En próximos posts, vamos a ver el detalle paso a paso para replicar las distintas fuentes de datos soportadas, como monitorear éstas y algunas conclusiones.

Microsoft Fabric – La nueva Solución de Analytics

Visitas: 157

Microsoft Fabric finalmente ha sido anunciado como Public Preview durante Microsoft Build 2023.

Y esencialmente, es una nueva herramienta, o bien una especie de nueva herramienta dentro todo el ecosistema de la plataforma de Datos de Microsoft.

Debido a que el anuncio fue de una magnitud importante, es conveniente separar un poco la visión general de Microsoft sobre el mundo de datos y bajar a tierra cada concepto de esta nueva herramienta.

Lo que nos lleva a tratar de responder algunas preguntas iniciales:

  • ¿Qué es Microsoft Fabric?
  • ¿Cómo funciona?
  • ¿Por qué nos debería importar?
  • ¿Realmente todos lo vamos a usar?
  • ¿Lo vamos a usar de repente sin darnos cuenta de que realmente lo hemos activado?
  • ¿Cómo encaja en el mundo existente?
  • ¿Dónde encaja Synapse Analytics?
  • ¿Dónde encaja Power BI?

¿Qué es Microsoft Fabric?

Bien, para comenzar tomando la definición oficial de Microsoft, Fabric se define como como “la plataforma de datos en la era de la IA”.

Es una nueva plataforma de tipo SaaS (Software as a Service) que encapsula todos los diferentes tipos de cargas de trabajo y cómputo que había Synapse analytics en una versión “SaaSificada”, sumado a la agradable facilidad de uso que tenemos en Power BI.

Agrega toda la capacidad de un Lake-House más todas las piezas de Synapse Analytics, traídos a la misma plataforma SaaS que Power BI. Eso es lo que proclama ser Microsoft Fabric.

Si ya somos usuarios de la versión premium de Power BI, algunas de estas características se encontrarán habilitadas a partir de este lanzamiento.

En resumen, Fabric es una plataforma SASS que encapsula Power BI más muchos de los componentes de Synapse Analytics y otras nuevas capacidades.

Haciendo un paralelo, la forma en que se definió a Fabric sería como hablar de Microsoft Office, pero para el mundo de datos.

Por lo que asumiendo los costos (y claramente habrá algunos), sería como usar Office 365. Entonces, si tengo que hacer una presentación podemos utilizar PowerPoint, o Word para componer un documento o si tenemos que hacer cálculos utilizaríamos Excel.

Tomando esta idea como concepto, deberíamos pensar en agrupar bajo un mismo portal todas las actividades de datos. Por ejemplo, un Pipeline de Copy en Data Factory o quizás empezar a trabajar directamente desde un Reporte de Power BI con un conjunto de datos, que a su vez otro usuario puede haber trabajado con un Notebook de Python o mediante un Dataflow.

Un único almacenamiento para gobernarlos a todos

Todas estas cargas de trabajo que mencionamos, si bien pertenecen a productos que ya existían y claramente estaban orientadas a diferentes roles de usuario, ahora se encuentran bajo una misma Suite y cuyo soporte de almacenamiento es común a todas a ellas.

Este es un pilar de Fabric, todo el almacenamiento es un único tipo de storage de tipo Lake.

Microsoft ha presentado este concepto de almacenamiento tipo Lake unificado como si fuese el concepto de OneDrive, pero orientado a cargas de datos.

Hoy todos conocemos el servicio de OneDrive, donde hay Teams y también carpetas de Sharepoint. Y siempre tenemos una copia en sincronía local en nuestros equipos, por lo que toda la organización puede trabajar y compartir los archivos que necesitan.

Y esencialmente, Microsoft está tratando de imitar esta funcionalidad con este almacenamiento Lake, basado en Cloud Storage.

Hasta ahora si teníamos que trabajar con diferentes tipos de archivos o fuentes de datos, incluso en diferentes ubicaciones o nubes, la integración de estos silos de datos requería mucha complejidad para poder conectarnos, copiar o masajear la información.

Esta situación terminaba inevitablemente requiriendo tareas de Data Engineering, pipelines de ETL/ELT o simplemente una de-duplicación de estos datos múltiples veces para poder trabajar con ellos.

Pues bien, ahora Fabric con el almacenamiento unificado de tipo Lake, quiere poner fin a estas tareas complejas presentando una “única” copia de los datos con los que todos los usuarios vamos a poder trabajar.

Y este es un gran concepto, ya que teniendo un único punto de donde parten los datos, se simplifica en una gran medida el trabajo con la seguridad, para decidir quién puede acceder a qué datos, y toda la integración con el resto de las herramientas.

Por otro lado también, se ofrecerá una interfaz similar a OneDrive, llamada OneLake donde podremos interactuar con este almacenamiento para subir, modificar u obtener archivos tan fácilmente como conectarnos con nuestras credenciales incluso desde un desktop.

Un motor para cada tarea

La evolución de las diferentes cargas de trabajo, hacen que un único motor de procesamiento no sea suficiente.

Y es por esto que MS Fabric, nos permite utilizar el poder de los diferentes tipos de motores bajo una misma interfaz y sin tener que preocuparnos de aprovisionar o configurar previamente una capacidad de cómputo específica.

Data Factory

En Fabric nos encontramos con una “evolución” de los pipelines y Mapping Dataflows de Synapse Analytics, que ahora utiliza Power Query para copia y transformación de flujos de datos.

Data Engineering

En cuanto a ingeniería de datos, esencialmente nos encontramos con el motor de Spark que teníamos en Synapse, donde vemos la versión 1.1 que incluye Spark 3.3 y Delta 2.2 y se espera que el ritmo de actualización sea más constante y con una experiencia más continua y que sea completamente transparente con el resto de las piezas de Fabric.

Data Science

Por el lado de Ciencia de Datos, tenemos la capacidad de crear Modelos y Experimientos y luego incluir éstos dentro de un Pipeline con Spark Jobs.

Data Warehousing

Luego llegamos al componente de Data Warehousing, el mundo un poco más conocido para los que trabajamos con T-SQL.

En este motor, tenemos la capacidad de escribir SQL y ejecutar Stored Procedures con cargas de trabajo transaccionales.

Lo que realmente estamos viendo con Fabric es que no vamos a tener que elegir si trabajar con un SQL Pool dedicado y un SQL Pool Serverless. Ahora vamos a tener un único motor SQL que operará con un único almacenamiento de datos que ya se encuentra previamente configurado.

Es quiere decir que todo el almacenamiento de nuestras tablas y registros se encontrará dentro del OneLake y nuevamente con formato Delta.

Real Time Analytics

Este motor de análisis en tiempo real, toma la forma de lo que teníamos en Azure Data Explorer con lenguaje Kusto, para realizar ingesta y consulta de eventos en tiempo real. Este motor permite trabajar y analizar grandes volúmenes de registros en formato de series temporales, que pueden desde luego ser conectados a Power BI.

Data Activator

Este motor quizás sea la pieza de Fabric mas novedosa y permite tomar acciones automáticamente basadas en los datos.

Normalmente para automatizar acciones sobre los datos, se require el desarrollo de código y esto suele ser costoso en tiempo y recursos. Es por esto Fabric ofrece dentro de sus motores a Data Activator con una experiencia “No-Code” para poder tomar acciones directamente desde los datos y sus cambios.

Basado en modelos de datos, reglas de negocio y Triggers que se pueden configurar en forma visual, se crean acciones que pueden desencadenar procesos, alertas y llamadas a otras aplicaciones. Desde un simple email hasta interactuar con Power Automate para crear flujos mas complejos.

Conclusión

Microsoft ha fijado con Fabric una dirección unificada de dónde visualiza sus servicios en términos de datos y análisis en la nube.

Y esto parece ser algo serio, ya que de alguna manera Fabric parece ser el punto de convergencia de las múltiples iniciativas y servicios que existían en el ecosistema de Azure y On Premises de los productos de Microsoft hasta hoy.

Es verdad que aún falta mucho camino y en toda unificación habrá cosas que se perderán y otras se ganarán. Cada pieza de Fabric aún está en desarrollo y otras que aún no han sido anunciadas pero lo importante es que finalmente tenemos una dirección que permite tener una historia consistente de punta a punta con los datos.

Microsoft Reactor NYC – All Around Azure | Unlocked: Cloud Scale Analytics

Visitas: 114

Microsoft Reactor NYC - All Around Azure | Unlocked: Cloud Scale Analytics

Microsoft Reactor – All Around Azure | Unlocked: Cloud Scale Analytics!

Recientemente recibí una invitación especial del equipo de Azure para hablar sobre Scalable data management and analytics en el Microsoft Reactor New York y un gran grupo de Microsoft MVPs de las comunidades globales: José Portillo, Mariano Kovo, y Dave Rendón. Durante la sesión, nos centramos en los obstáculos para obtener valor de sus datos que luego impulsa a los equipos a desarrollar y optimizar las estrategias de datos.

También mantuvimos un debate enriquecedor sobre por qué las empresas están buscando una malla de datos para capacitar a los equipos con el autoservicio, al tiempo que implementan una gobernanza y una gestión sólidas.

Al final, hablamos sobre el diseño fundacional para la gobernanza y la gestión, que se alinea tanto con la malla de datos como con el marco de adopción de la nube de Microsoft.

Agradecimiento al Equipo Organizador

Quiero agradecer al equipo que llevó a cabo este excelente evento: Ionne Corey, Rebecca Karrim, Gwyneth Peña-Siguenza y Glauter Jannuzzi.

Link a la grabación: All Around Azure | Disponibilidad de análisis a escala de nube – Parte 1 – YouTube

Azure Synapse Analytics – Análisis de Datos Ilimitados

Visitas: 683

Nuevo Viejo Producto?

Durante el evento de Ignite de 2019, Microsoft anunció el cambio del servicio SQL Datawarehouse para pasar a llamarlo Synapse Analytics.

Mas allá del mero cambio de nombre, durante el anunció también dieron una muestra de una capacidad dentro de este servicio que llamaron Synapse Workspaces. Unificando así el mundo relacional con Big Data, Inteligencia Artificial y Power BI.

Ref: https://azure.microsoft.com/es-es/services/synapse-analytics/?WT.mc_id=DP-MVP-5003124

Rohan Kumar presentando en Ignite

Synapse Workspaces Componentes

Ahora bien, dentro de esta plataforma Microsoft hizo un relanzamiento del ya conocido Azure SQL Datawarehouse, pero a la vez agregando nuevos componentes que llevan el análisis de datos más allá de un repositorio relacional para un Enterprise DataWarehouse.

Ahora con Synapse se pueden unificar los mundos Relacionales, No Relacionales, Big Data y Machine Learning en un solo lugar

Cómputo

En esta plataforma podemos aprovisionar dos tipos de cómputo, es decir crear un Pool de Recursos para SQL o bien de tipo Spark.

Un Pool de tipo SQL, nos permitirá ejecutar cargas de trabajo símil T-SQL con la opción de aprovisionar los recursos de capacidad (Provisioned – aka DWUs) o utilizar una versión Serverless (On Demand).

La novedad ocurre con los Spark Pools, que permiten ejecutar cargas de trabajo de tipo Analíticas y de Machine Learning con Notebooks de tipo Jupiter y múltiples lenguajes como Phyton, Scala, SparkSQL y .NET para Spark.

Estos últimos al momento de este post, solo pueden ser creados de forma aprovisionada.

Integración

Dentro la plataforma, contamos también con una sección de Integración, que se basa en Azure Data Factory y que permite realizar pipelines de integración (ELT/ETL) sin escribir código.

Almacenamiento

Como repositorio no relacional, Synapse se apoya en el ya bien establecido Azure Data Lake (Gen2) obteniendo así escalabilidad casi ilimitada, pero a la vez con el control que ofrece este componente en cuanto a seguridad y administración (ACLs, Keys, etc.)

Administración

Finalmente como punto de ingreso a esta plataforma, Microsoft nos ofrece Synapse Studio, una interfaz Web que une todos los componentes en un solo lugar y que permite tanto a Administradores como Desarrolladores y Usuarios gestionar todas las actividades.

Y porque no… POWER BI

El mundo de analytics ya no solo pertenece a las areas de sistemas, sino cada vez mas a los usuarios del negocio, que a partir de Synapse podrán ver sus Workspaces de Power BI integrados en la misma consola aprovechando así los datos que otros sectores de la organización hayan podido preparar con los otros componentes de Synapse.

Recap

Microsoft pudo reunir en un solo lugar todas las capacidades de análisis de información y para toda una variedad de perfiles de usuarios.

Si bien hasta el momento se encuentra en Public Preview, este servicio promete muchísima capacidad y a la vez revalorizando el capital ya existente en las organizaciones.

En próximos post, analizaremos cada componente, costos y funcionalidades.

Ciclo de Webinars Abril 2020

Visitas: 329

Durante el mes de Abril, junto con la comunidad SQL Argentina, estuvimos organizando a cabo una serie de webinars semanales sobre diferentes temas de SQL Server y Power BI.

La lista completa:

ColumnStore Indexes : A new way to handle DW Workloads – Gonzalo Bissio

PowerBI Actualización Incremental – Alejandro Cabanchik

SQL Performance & Monitoring Using Free Community Tools – Javier Villegas

SQL Server Integración Multiplataformas – Javier Londoño

Todos ellos fueron grabados y los materiales publicados en los canales del grupo.

Canal de Youtube

https://www.youtube.com/sqlargentinapass

No olvidarse de suscribirse! Y por que no un like!

Tambien el material, presentaciones y demos se encuentran en el repositorio de GitHub:

https://github.com/SQLArgentina/Webinars_Abril2020

Esperamos que hayan sido de utilidad, y aguardamos el feedback para las próximas actividades.

Gracias!