Il team

Lars Løberg Monstad

Lars Løberg Monstad

Chief Executive Officer e co-fondatore

Lars è un esperto ingegnere di Machine Learning e sviluppatore Full-Stack specializzato nel music information retrieval. Ha pubblicato diversi articoli nel settore e sviluppato modelli IA avanzati per l'analisi e la trascrizione musicale. Come CEO e co-fondatore, guida la visione e la strategia di prodotto dell'azienda, combinando profonda competenza tecnica con leadership imprenditoriale.

Dr. Olivier Lartillot

Dr. Olivier Lartillot

Chief Science Officer e co-fondatore

Ricercatore di punta presso il Centro RITMO dell'UiO per gli studi interdisciplinari su ritmo, tempo e movimento e professore presso il MishMash Center for AI and Creativity. Ha ideato l'approccio ibrido transformer-regole che costituisce il nucleo della nostra tecnologia di trascrizione. Oltre 20 anni di esperienza nella musicologia computazionale e nel MIR (Music Information Retrieval).

Karstein Grønnesby

Karstein Grønnesby

Chief Operating Officer

Karstein ha conseguito un Master in Tecnologia Musicale presso l'Università di Oslo e vanta anni di esperienza nel coordinamento di progetti e produzioni nel settore musicale. Supervisiona la gestione dei progetti e guida il lato B2B del nostro prodotto, attingendo alla sua esperienza presso Samspill International Music Network e Norsk Viseforum. È anche il fondatore di Blåsemaker, un laboratorio dedicato alla costruzione di strumenti a fiato tradizionali norvegesi.

La nostra missione

Crediamo che la trascrizione musicale debba essere accessibile a tutti — dagli studenti che imparano le loro canzoni preferite ai musicisti professionisti che preservano le loro composizioni. La nostra tecnologia IA colma il divario tra audio e notazione, rendendo la creazione di spartiti semplice come registrare un'esecuzione.

Supportato dal Consiglio Norvegese della Ricerca

Innovation NorwayResearch Council of Norway

La nostra ricerca

AMT-Augmentor

AMT-Augmentor è un toolkit Python per espandere i dataset di trascrizione musicale automatica (AMT) con trasformazioni audio di alta qualità — time-stretching, pitch-shifting, riverbero/filtraggio, rumore, gain/chorus — preservando l'allineamento audio-MIDI. È compatibile con MAESTRO, gestito da CLI e configurabile via YAML, con elaborazione parallela e validazione/suddivisione dei dataset integrata per accelerare l'addestramento di modelli AMT robusti. Open-source (MIT).

Vedi su GitHub
AMT-Augmentor research
HF2 Hardanger Fiddle Dataset

HF2: Hardanger Fiddle Dataset

Un dataset open accoppiato audio-MIDI di registrazioni di violino Hardanger norvegese, realizzato presso l'Università di Oslo per l'addestramento e la valutazione di modelli di trascrizione audio-MIDI. Estende il dataset originale HF1 a 119 coppie audio-MIDI distribuite su 39 brani unici (90.325 note annotate, ~970 MB) e introduce varianti emotive — ogni brano eseguito in cinque interpretazioni (originale, arrabbiato, allegro, triste, tenero) — insieme a una ground truth in CSV con dati di pitch ad alta precisione. Un dataset di ricerca per la comunità del music information retrieval.

Vedi su GitHub

Pubblicazioni recenti

Il nostro modello di ricerca in azione

Trascrizione dal vivo di musica per violino di Hardanger presso il MishMash Centre for AI and Creativity di Oslo · 08.04

Sulla stampa

Shifter article screenshot

Shifter · Notizie tech norvegesi

Brukte AI til å transkribere noter for hardingfele — det ga gründerne ideen til ny musikk-app de mener kan bli en pengemaskin

Leggi l'articolo
About Bots for Music — AI Piano Transcription Team | Bots for Music