Pe măsură ce suveranitatea datelor și performanța de calcul devin diferențiatori strategici pentru companiile care adoptă AI, cererea pentru infrastructuri AI private, on-premises, continuă să crească. Ca răspuns la această tendință, QNAP® Systems, Inc., un lider global inovator în soluții de calcul, rețelistică și stocare, prezintă QAI-h1290FX, un server de stocare Edge AI de nouă generație, conceput pentru a sprijini implementarea privată a modelelor lingvistice mari (LLM), a motoarelor de căutare de tip Retrieval-Augmented Generation (RAG) și a aplicațiilor de inteligență artificială generativă.

Echipat cu procesoare AMD EPYC™ de clasă server, cu suport pentru accelerare GPU NVIDIA® RTX™ și 12 sloturi pentru SSD-uri U.2 NVMe/SATA, QAI-h1290FX oferă o infrastructură AI on-premises de înaltă performanță pentru organizațiile care necesită inferență cu latență redusă, confidențialitate completă a datelor și control operațional, fără a depinde de cloud.

Susținut de sistemul de operare QuTS hero de la QNAP bazat pe ZFS, modelul QAI-h1290FX asigură integritatea datelor la nivel enterprise, snapshot-uri aproape nelimitate și deduplicare inline. Acesta suportă acces nativ la GPU în containere prin Container Station și GPU passthrough pentru mașinile virtuale prin intermediul Virtualization Station. Echipele IT, dezvoltatorii și grupurile de cercetare pot rula eficient modele de inferență, aplicații AI generative și fluxuri de lucru RAG, având control complet asupra performanței și alocării resurselor.

QAI-h1290FX include o selecție atent aleasă de instrumente AI preinstalate, precum AnythingLLM, OpenWebUI și Ollama. Astfel, permite implementarea rapidă a fluxurilor de lucru LLM private. Aplicații AI suplimentare, cum ar fi Stable Diffusion, ComfyUI, n8n și vLLM, sunt de asemenea integrate pentru a extinde funcționalitatea. Acest lucru permite utilizatorilor să construiască rapid platforme AI on-premises și să automatizeze fluxurile de lucru într-un mediu sigur, scalabil și complet controlat.

„QAI-h1290FX răspunde cererii tot mai mari pentru infrastructură AI on-premises”, a declarat Oliver Lam, Product Manager în cadrul QNAP. „Am dorit să eliminăm obstacolele asociate cu construirea unei stații de lucru GPU, instalarea instrumentelor și configurarea mediilor complexe. Cu QAI-h1290FX, utilizatorii pot implementa și rula modelele lor AI direct din cutie, având control deplin asupra datelor lor și zero dependență de cloud.”

Caracteristici principale ale QAI-h1290FX

  • Arhitectură de stocare all-flash: Cele 12 sloturi pentru SSD-uri U.2 NVMe/SATA permit viteze de intrare/ieșire (I/O) ultra-rapide pentru execuția de înaltă frecvență a modelelor AI și transmiterea datelor.
  • Procesor AMD EPYC™ 7302P cu 16 nuclee: Oferă 32 de fire de execuție cu putere de calcul de clasă server, ideal pentru inferență AI, virtualizare și sarcini de lucru paralele solicitante.
  • Arhitectură pregătită pentru GPU: Suportă placa video opțională pentru stații de lucru NVIDIA RTX PRO™ 6000 Blackwell Max-Q, oferind până la 96 GB de memorie GPU și suport pentru accelerare CUDA®, TensorRT™ și Transformer Engine, sporind semnificativ performanța pentru inferența LLM on-premises, generarea de imagini și sarcinile de lucru de tip deep learning.
  • Mediu AI containerizat și management al resurselor GPU: Suportă Docker și LXD cu alocare intuitivă a resurselor GPU. Utilizatorii pot lansa rapid instrumente AI prin intermediul centrului integrat de aplicații AI și pot aloca resurse GPU fără a fi necesară configurarea din linia de comandă.
  • Implementare complet locală, fără dependență de cloud: Rulați asistenți de chat bazați pe AI, motoare de căutare pentru documente sau baze de cunoștințe complet on-premises. Păstrați datele sensibile în interiorul companiei, accelerând în același timp fluxurile de lucru AI.
  • Rețelistică de mare viteză și arhitectură scalabilă: Vine echipat cu 2 porturi 25GbE și 2 porturi 2,5GbE. Sloturile PCIe suportă upgrade-uri opționale la 100GbE. Este compatibil cu unitățile de expansiune QNAP JBOD pentru stocarea datelor AI la scară largă.

Scenarii principale de utilizare

  • Asistenți AI interni / Interfețe de chat on-premises
    Implementați interfețe AI conversaționale pentru căutarea informațiilor, instruirea angajaților și întrebări referitoare la politici, totul sub controlul dumneavoastră complet.
  • Căutare RAG de clasă enterprise
    Valorificați fluxurile de lucru RAG private pentru a efectua căutări rapide și contextuale în contracte, rapoarte și documente interne.
  • Generare de imagini pentru echipele de creație
    Rulați Stable Diffusion sau ComfyUI pentru fluxuri de lucru de design susținute de AI și generarea de conținut vizual.
  • Automatizare IT bazată pe AI
    Utilizați n8n pentru a automatiza sarcinile de inferență, generarea de conținut sau alertele.

Cu modelul QAI-h1290FX, QNAP oferă o cale practică și de înaltă performanță pentru implementarea inteligenței artificiale generative în interiorul companiei. Indiferent dacă este utilizat în operațiuni juridice, de resurse umane, de creație sau IT, acesta ajută echipele să acționeze mai rapid, să rămână conforme și să dețină controlul complet asupra strategiei lor AI, direct la nivel de edge.

Pentru mai multe informații și pentru a vedea gama completă de produse QNAP, accesează www.qnap.com.