👨🏻‍💻 postech.work

LLM Research Engineer / ML Engineer

DEDA • 🌐 In Person

In Person Posted 2 days, 17 hours ago

Job Description

Cosa aspettarti

Siamo uno dei principali gruppi tecnologici in Italia e operiamo come Business \& Technology Accelerator di Aziende, Istituzioni Finanziarie e Servizi Pubblici, supportando l’evoluzione delle loro strategie IT e digitali. Con un ecosistema di imprese che condividono valori e visione, aiutiamo i clienti a cogliere i benefici della tecnologia, amplificandone l’impatto positivo su economia e società.

Entrerai in Istella, partner di Dedagroup, è specializzata in Big Data e Intelligenza Artificiale, con un forte focus su tecnologie di knowledge graph, data intelligence e AI generativa a supporto di soluzioni enterprise.

Troverai un contesto di ricerca applicata integrato con lo sviluppo di prodotto, dedicato allo sviluppo, all’addestramento e all’ottimizzazione di Large Language Models di scala medio-grande, con particolare attenzione alla lingua italiana ed europea e alla loro industrializzazione.

Cosa farai

Sarai coinvolto nella progettazione e implementazione di pipeline di pre-training, continual pre-training e fine-tuning di modelli linguistici, occupandoti della preparazione, del filtraggio e della deduplicazione di dataset testuali di grandi dimensioni.

Lavorerai su attività di training su infrastrutture multi-GPU e multi-node e sulla sperimentazione di tecniche di adattamento efficiente dei modelli.

Contribuirai alla valutazione delle capacità dei modelli in termini di qualità, robustezza e performance e all’ottimizzazione delle fasi di inferenza, con attenzione agli aspetti di efficienza e scalabilità.

Cosa ci aspettiamo da te

Laurea in discipline scientifiche, preferibilmente in Informatica o Ingegneria Informatica.

Solida esperienza in Machine Learning e Deep Learning e un’ottima conoscenza di Python e PyTorch

Esperienza diretta nel training o fine-tuning di LLM o modelli NLP di grandi dimensioni.

Familiarità con distributed training (DDP, FSDP, ZeRO, parallelismi) e con l’ecosistema GPU / CUDA.

Comprensione approfondita delle architetture Transformer.

Costituiscono titolo preferenziale l’esperienza con strumenti e framework avanzati (vLLM, DeepSpeed, llama.cpp, Unsloth, Axolotl) .

Gradito background di ricerca accademica.

Cosa ti offriamo

Work life balance grazie a un modello di lavoro agile.

Lavoro su tecnologie all’avanguardia nel campo Search + LLM e accesso a infrastrutture GPU e modelli proprietari

Get job updates in your inbox

Subscribe to our newsletter and stay updated with the best job opportunities.