Business Intelligence Developer (Microsoft Ecosystem)

Date:  Dec 23, 2025
Location: 

Mendrisio

Il Gruppo Damiani, uno tra i principali player internazionali nella produzione e commercializzazione di gioielli di alta gamma e di design, è alla ricerca di una figura di IT Business Intelligence Analyst/Developer per la sede di Mendrisio (CH). La persona collaborerà direttamente con il responsabile della funzione nella definizione e nello sviluppo di nuove analisi dati e nella gestione delle analisi dati esistenti a supporto dei processi decisionali delle varie funzioni aziendali in un contesto fortemente innovativo, supportata da colleghi senior e da consulenti esterni esperti. Cerchiamo un Business Intelligence Analyst/Developer con forte specializzazione nelle tecnologie Microsoft (Power BI, Microsoft Fabric, Azure Data Platform e SharePoint) per progettare, sviluppare e mantenere soluzioni analitiche avanzate a supporto delle decisioni aziendali. L’attività includerà la reportistica sviluppata con tecnologie non di Business Intelligence. La figura sarà responsabile dell’intero ciclo di vita dei dati: ingestion, modellazione, trasformazione, creazione del semantic layer e sviluppo di dashboard intuitive e performanti.

Responsabilità principali

  • Progettazione & Sviluppo
  • Raccogliere e analizzare i requisiti di business e tradurli in soluzioni dati end-to-end.
  • Sviluppare dataset, semantic models e report interattivi con Power BI.
  • Costruire e mantenere pipeline di ingestione ed elaborazione dati usando Microsoft Fabric e/o Azure Data Factory.
  • Progettare architetture dati basate su Data Lakehouse e OneLake.
  • Gestire la modellazione dei dati secondo le best practice (Star Schema, medallion architecture).
  • Gestione dei dati & Data Engineering
  • Sviluppare query SQL avanzate per l’estrazione e la trasformazione dei dati.
  • Ottimizzare performance di modelli, query e dashboard.
  • Gestire data quality, data governance, sicurezza e accessi (incl. RLS).
  • Integrare dati provenienti da SharePoint, applicazioni aziendali e sistemi esterni.
  • Deploy, Monitoring & Governance
  • Gestire workspace, deployment pipeline e dataset nel Power BI Service.
  • Implementare automazioni e orchestrazioni (ad es. con Power Automate o Azure Functions).
  • Documentare processi, flussi dati, modelli e dashboard.

Mantenimento & Gestione

  • Raccogliere e analizzare le segnalazioni per anomalie e miglioramenti degli utilizzatori (Business Intelligence e reporting tradizionale).
  • Proporre soluzioni per risolvere le anomalie segnalate dagli utilizzatori.
  • Garantire il deploy quotidiano della Business Intelligence e del reporting tradizionale (gestione data flow).

Business Partnership

  • Collaborare con stakeholder di business (Finance, Sales, Operations, HR…).
  • Supportare utenti finali nell’interpretazione dei dati e nell’utilizzo dei report.
  • Partecipare alla definizione dei KPI e delle metriche aziendali.
  • Assicurare il corretto funzionamento e la piena efficienza dei sistemi di analisi dati e di pianificazione e forecasting.
  • Offrire supporto quotidiano agli stakeholder al fine di utilizzare in modo efficace ed efficiente la piattaforma di reporting.
  • Condurre e la fase di test e di rilascio in produzione delle soluzioni sviluppate.
  • Preparare ed erogare il training per gli stakeholder.

Requisiti minimi

  • Competenze tecniche
  • Ottima conoscenza di Power BI:
  • Modelling (DAX, relazioni, aggregazioni)
  • Power Query (M)
  • Report design & UI/UX
  • Solida esperienza con Microsoft Fabric:
  • Lakehouse / OneLake
  • Dataflows Gen2
  • Notebook (Python/SQL)
  • Pipeline di ingestione
  • Esperienza con servizi della Azure Data Platform:
  • Azure SQL Database
  • Data Factory
  • ADLS Gen2
  • Fabric (preferibile)
  • SQL avanzato.
  • Esperienza con SharePoint Online come fonte dati e gestione contenuti.
  • Esperienza nella costruzione di DataMart e tecniche di Data Warehousing.
  • Conoscenza concetti di architettura dati (ETL/ELT, Data Lakehouse, medallion architecture).

Nice-to-have

  • Conoscenze di Python.
  • Esperienza con Azure Synapse, Databricks o strumenti di machine learning.
  • Esperienza con Git e processi DevOps.
  • Esperienza con API REST, OData e integrazioni complesse.
  • Formazione
  • Laurea in Informatica, Ingegneria, Statistica, Matematica o discipline affini.
  • (Esperienza equivalente considerate in caso di diploma scuola media superiore).
  • Località & Modalità di lavoro
  • Sede: Mendrisio.
  • Capacità di lavorare in ambienti aperti – open space.
  • Capacità di lavorare (scritto e orale) in lingua inglese.
  • Disponibilità a effettuare trasferte sia domestiche sia all’estero.