AI Accelerator Icon

Cloud Server NPU

L’Intelligenza Artificiale si muove rapidamente; con essa, la tecnologia dei processori. Con un’architettura che simula le reti neurali, le NPU - o Neural Processing Unit - sono in grado di processare un numero elevato di calcoli complessi all’insegna di efficienza energetica e ottimizzazione costi.
I nostri server NPU sono servizi di AI Accelerator con cui migliori i tuoi carichi di inferenza AI disponendo della massima potenza computazionale al minimo impatto ambientale.

AI Accelerator CS NPU1

Neural Processing Unit

Tenstorrent Grayskull e75
8 GB RAM
96 Tensix Core
221 TeraFLOPs

Numero di schede

1

RAM

64 GB

CPU CORE

16 vCore

Disco

100 GB SSD

Connettività

10 Gbps

Costo Orario

0,07
?
L’ordine ti consente di ottenere un account sulla piattaforma da cui poter configurare uno o più AI Accelerator e usarli anche per una sola ora

Totale Mensile
(uso stimato 24h x 30g)

50,40
AI Accelerator CS NPU2

Neural Processing Unit

Tenstorrent Grayskull e150
8 GB RAM
120 Tensix Core
332 TeraFLOPs

Numero di schede

1

RAM

64 GB

CPU CORE

16 vCore

Disco

100 GB SSD

Connettività

10 Gbps

Costo Orario

0,10
?
L’ordine ti consente di ottenere un account sulla piattaforma da cui poter configurare uno o più AI Accelerator e usarli anche per una sola ora

Totale Mensile
(uso stimato 24h x 30g)

72,00

I chip Tenstorrent ti consentono di sfruttare le prestazioni di card Grayskull che, a differenza delle GPU, presentano una scalabilità più semplice, consumando molto meno sul piano energetico.

Particolarmente progettato per i task di inferenza tipici dell’intelligenza artificiale e del machine learning, il nostro NPU AI Accelerator velocizza e semplifica notevolmente lo sviluppo degli SLM o Small Language Model.

  • Cos’è Cloud Server NPU?

    Cloud Server NPU è un servizio di AI Accelerator. Si tratta di cloud server basato su Sistema Operativo Linux che, in aggiunta alle normali CPU, offre la tecnologia NPU, acronimo di “Neural Processing Unit”. Le NPU sono dei processori dedicati con una particolare potenzialità di accelerazione delle reti neurali.

  • Cosa distingue le NPU dalle GPU?

    Le NPU sono più specifiche per determinati task dell’intelligenza artificiale, mentre le GPU sono utilizzabili in un’ampia varietà di contesti e applicazioni.

    In particolare, le NPU sono particolarmente adatte per servire calcoli paralleli massivi data-driven (es. speech recognition, editing di video e foto, riconoscimento di oggetti, etc.).

    Con Cloud Server NPU, per esempio, è possibile garantire un’ottima base di lavoro per il full stack development dei cosiddetti Small Language Models, ovvero quei modelli di linguaggio che hanno dai pochi milioni a qualche miliardo di parametri e che, dunque, hanno meno parametri rispetto agli LLM.

  • Come si può ottenere AI Accelerator NPU?

    Cloud Server NPU è un vero e proprio server in cloud dotato di card Tenstorrent attivabile online dal pannello Seeweb, da cui è possibile scegliere la tipologia di istanza AI Accelerator a seconda del carico di lavoro.

    Dallo stesso pannello potrai attivare anche più cloud server NPU e utilizzarli on demand con costo minimo orario e possibilità di accedere a costi ridotti riservando le istanze per periodi temporali più ampi.

  • Quanta banda e traffico e banda ho a disposizione con NPU Seeweb?

    I Cloud Server NPU offrono 10 Gbps di connettività e traffico illimitato.

  • Come accedo al server NPU AI Accelerator?

    È possibile accedere al server NPU AI Accelerator sfruttando l’accesso SSH. Il server può essere consegnato con setup specifici su richiesta ed è integrabile con l’ecosistema cloud Seeweb.