Nothing Special   »   [go: up one dir, main page]

Lenovo-LOGO

Lenovo RHEL AI

Lenovo-RHEL-AI-PRODUCT

Informació del producte

Especificacions:

  • Nom del producte: RHEL AI (Red Hat Enterprise Linux AI)
  • Funció principal: accelerar els desplegaments d'intel·ligència artificial i aprenentatge automàtic
  • Característiques principals: Entorn d'un sol servidor centrat en la seguretat per experimentar amb grans models de llenguatge

Preguntes freqüents

P: Quin és l'objectiu principal de RHEL AI?

R: RHEL AI té com a objectiu proporcionar una plataforma segura i rendible per experimentar amb grans models de llenguatge i accelerar els desplegaments d'IA.

P: Com RHEL AI aprofita els models de base?

R: RHEL AI utilitza models bàsics amb una comprensió contextual general dels patrons per permetre l'ajustament per a tasques específiques de la indústria.

P: Quins són alguns dels avantatges clau d'utilitzar RHEL AI per a la IA generativa?

R: RHEL AI permet a les empreses entrenar i desplegar models d'IA generativa en entorns de núvols híbrids i proporciona accés a la plataforma OpenShift AI de Red Hat per al desenvolupament de models.

Què és RHEL AI? Una guia per a la manera de codi obert per a la informació de posicionament de l'IA

Accelerar la intel·ligència artificial i els desplegaments d'aprenentatge automàtic

  • La intel·ligència artificial (IA) és una eina nova i poderosa a la indústria de les TI, però, com passa amb la majoria d'eines digitals, una mida no s'adapta a tots. Un bot general d'IA entrenat en contingut aleatori d'Internet des de fa 5 anys pot impressionar un usuari ocasional, però és probable que la vostra organització necessiti coneixements especialitzats actuals sobre el desenvolupament de dominis (i possiblement confidencials). Necessiteu una IA que s'hagi afinat per a la vostra organització, i no hi ha millor manera d'aconseguir-ho que amb Red Hat Enterprise Linux AI (RHEL AI) i InstructLab.
  • Tanmateix, el desplegament d'aquestes tecnologies pot ser complex. A mesura que els científics de dades treballen per construir els seus models, sovint s'enfronten a una manca d'alineació entre les eines d'evolució ràpida. Aquestes discrepàncies poden dificultar la productivitat i la col·laboració entre els científics de dades, els desenvolupadors de programari i les operacions de TI. L'escalada dels desplegaments d'IA/ML pot tenir recursos limitats i complexos administrativament, i requereixen costosos recursos de la unitat de processament de gràfics (GPU) per a l'acceleració de maquinari i càrregues de treball distribuïdes per a l'IA generativa (gen AI).
  • Gràcies a la comunitat de codi obert, construir una IA no és tan descoratjador com pot semblar a primera vista. Ja existeixen diversos LLM i, gràcies a InstructLab, són fàcils de modificar per a les necessitats de la vostra organització.
  • Amb RHEL AI més coneixements rudimentaris de Python i YAML, podeu portar una IA personalitzada a la vostra organització. De fet, Red Hat Developers ha llançat un nou camí d'aprenentatge de la IA que t'acompanya en el procés. El curs complementari revela tot el que necessiteu saber sobre la recollida de dades, la formació prèvia i els passos d'ajust, i la millora d'un LLM existent. El camí d'aprenentatge inclou una guia pas a pas sobre com inicialitzar el vostre entorn Python, descarregar i entrenar un model i com posar-lo a disposició dels vostres usuaris.
  • Sovint, els usuaris d'IA volen experimentar amb grans models de llenguatge (LLM) abans de desenvolupar-los i ampliar-los a un entorn de producció molt més gran. Tanmateix, experimentar amb aplicacions populars basades en LLM com ChatGPT significa compartir informació personal sensible, cosa que sovint genera preocupacions sobre com s'emmagatzemen i s'utilitzen les dades dels usuaris.
  • RHEL AI aborda aquest repte proporcionant un entorn de baix cost, centrat en la seguretat i d'un sol servidor per experimentar amb grans models de llenguatge. RHEL facilita que els usuaris amb poca o cap experiència en ciència de dades comencin a desenvolupar i millorar grans models de llenguatge sense cap problema de privadesa o seguretat de les dades.

FEU CLIC AQUÍ PER CONSULTAR L'ACTUALITZACIÓ

Què és Red Hat Enterprise Linux AI i com funciona?

  • Red Hat Enterprise Linux AI és una plataforma de models bàsics dissenyada per ajudar-vos a desenvolupar, provar i executar els models Granite AI de codi obert. RHEL AI es basa en el projecte de codi obert InstructLab i combina els grans models de llenguatge (LLM) Granite d'IBM Research amb les eines d'alineació de models d'InstructLab. Basant-se en la metodologia d'Alineació a gran escala per a chatBots (LAB), RHEL AI pot produir una imatge RHEL d'arrencada perquè el vostre desplegament d'IA sigui tan fàcil com arrencar un contenidor o una màquina virtual. El seu objectiu principal és permetre als usuaris desenvolupar, provar i executar models d'IA de generació per alimentar les aplicacions empresarials de manera més perfecta.
  • Red Hat Enterprise Linux AI permet la portabilitat a través d'entorns de núvol híbrids i fa possible escalar els vostres fluxos de treball d'IA amb Red Hat OpenShift® AI i avançar a IBM watsonx.ai amb capacitats addicionals per al desenvolupament d'IA empresarial, la gestió de dades i el govern de models.
  • Per context, un model de base és un tipus de model d'aprenentatge automàtic (ML) que està entrenat prèviament per dur a terme una sèrie de tasques. Fins fa poc, els sistemes d'intel·ligència artificial (IA) eren eines especialitzades, el que significa que un model de ML s'entrenaria per a una aplicació específica o un cas d'ús únic. El terme model de base (també conegut com a model base) va entrar al nostre lèxic quan els experts van començar a notar dues tendències dins del camp de l'aprenentatge automàtic:
    • S'estava utilitzant un petit nombre d'arquitectures d'aprenentatge profund per aconseguir resultats per a una gran varietat de tasques.
    • D'un model d'intel·ligència artificial (IA) poden sorgir nous conceptes que no estaven pensats originalment en la seva formació.
  • Els models de base s'han programat per funcionar amb una comprensió contextual general de patrons, estructures i representacions. Aquesta comprensió bàsica de com comunicar-se i identificar patrons crea una línia de base de coneixement que es pot modificar o ajustar encara més per dur a terme tasques específiques de domini per a gairebé qualsevol indústria.
  • Amb la base tecnològica de Linux, els contenidors i l'automatització, l'estratègia de núvol híbrid obert i la cartera d'IA de Red Hat us ofereix la flexibilitat per executar les vostres aplicacions d'IA allà on les necessiteu.
    Lenovo-RHEL-AI-FIG-1
  • El llançament de ChatGPT va despertar un gran interès per la IA generativa i el ritme d'innovació només s'ha accelerat des de llavors. Les empreses han passat de les avaluacions inicials dels serveis d'IA generativa al desenvolupament d'aplicacions habilitades per a IA. Un ecosistema en ràpida expansió d'opcions de models oberts ha impulsat més innovacions en IA, demostrant que no hi haurà un únic model dominant. Els clients es beneficiaran d'una àmplia gamma d'opcions per satisfer requisits específics, tot això s'accelerarà encara més gràcies a un enfocament obert a la innovació.
  • Tot i que la IA generativa ofereix un potencial immens, els costos associats d'adquisició, formació i ajustament de grans models de llenguatge (LLM) poden ser desorbitats, amb alguns models líders que costen gairebé 200 milions de dòlars per entrenar abans del llançament. Això no inclou el cost d'alinear el model amb els requisits o les dades d'una organització específica, que normalment requereix científics de dades o desenvolupadors altament especialitzats. Independentment del model escollit, l'alineació és necessària per adaptar-lo a les dades i processos específics de l'empresa, fent que l'eficiència i l'agilitat siguin crucials per a la IA en entorns de producció del món real.
  • Red Hat prediu que durant la propera dècada, els models d'IA més petits, eficients i dissenyats específicament es convertiran en una part important de la pila de TI empresarial, juntament amb les aplicacions natives del núvol. Tanmateix, per aconseguir-ho, la IA generativa ha de ser més accessible i disponible, des dels seus costos fins als seus col·laboradors fins a les seves ubicacions de desplegament al núvol híbrid. Durant dècades, les comunitats de codi obert han ajudat a afrontar reptes similars per a problemes complexos de programari mitjançant contribucions de diversos grups d'usuaris. Un enfocament similar pot reduir les barreres per adoptar eficaçment la IA generativa.
  • Gen AI és un catalitzador per a un canvi innovador, que interromp tot, des de com es fa el programari fins a com ens comuniquem. Però sovint, els LLM utilitzats per a la gen AI estan estretament controlats i no es poden avaluar ni millorar sense habilitats especialitzades i costos elevats. El futur no hauria d'estar en mans d'uns pocs.
  • Amb RHEL Al i el seu enfocament de codi obert, podeu fomentar la innovació gen Al amb confiança i transparència, alhora que reduïu costos i elimineu les barreres d'entrada.
  • Amb RHEL AI, les empreses podran entrenar i desplegar IA generativa a qualsevol lloc del núvol híbrid, a prop d'on resideixen les seves dades. A més, la plataforma ofereix un on-ramp a la plataforma d'IA OpenShift de Red Hat per entrenar, ajustar i oferir models d'IA generativa utilitzant les mateixes eines i conceptes

Què són els grans models lingüístics i com funcionen?

  • Els LLM adquireixen una comprensió del llenguatge mitjançant un mètode conegut com a aprenentatge no supervisat. Aquest procés implica proporcionar un model d'aprenentatge automàtic amb grans conjunts de dades de paraules i frases, que li permeten aprendre per ex.ample. Aquesta fase de formació prèvia no supervisada és fonamental per al desenvolupament de LLM com GPT-3 i BERT.
  • Fins i tot sense instruccions humanes explícites, l'ordinador pot extreure informació de les dades, establir connexions i "aprendre" sobre el llenguatge. A mesura que el model aprèn els patrons que regeixen la seqüenciació de paraules, pot predir com s'han d'estructurar les frases en funció de la probabilitat. El resultat és un model capaç de captar relacions intricades entre paraules i frases.
  • Els LLM requereixen recursos computacionals substancials a causa del seu càlcul constant de probabilitats per trobar connexions. Un d'aquests recursos és la unitat de processament gràfic (GPU). Una GPU és un component de maquinari especialitzat dissenyat per a tasques complexes de processament paral·lel, el que la fa ideal per a models d'aprenentatge automàtic i d'aprenentatge profund que requereixen càlculs extensos, com ara els LLM.
  • Les GPU són crucials per accelerar l'entrenament i el funcionament dels transformadors, un tipus d'arquitectura de programari dissenyada específicament per a tasques de processament de llenguatge natural (NLP) que implementen la majoria de LLM. Els transformadors són components fonamentals per als models populars de fundació de LLM com ChatGPT i BERT.
  • L'arquitectura del transformador millora els models d'aprenentatge automàtic capturant de manera eficient les relacions contextuals i les dependències entre els elements d'una seqüència de dades, com ara les paraules d'una frase. Utilitza mecanismes d'autoatenció (paràmetres) per ponderar la importància de diferents elements, millorant la comprensió i el rendiment. Els paràmetres defineixen els límits, que són crucials per donar sentit a la gran quantitat de dades processades pels algorismes d'aprenentatge profund.
  • L'arquitectura Transformer incorpora milions o milers de milions de paràmetres, cosa que li permet capturar patrons i matisos de llenguatge complexos. El terme "gran" en "model de llenguatge gran" es refereix al nombre substancial de paràmetres necessaris perquè un LLM funcioni amb eficàcia.
  • Els LLM moderns mostren una capacitat inigualable per entendre i utilitzar el llenguatge, superant el que abans era concebible des d'un ordinador personal. Aquests models d'aprenentatge automàtic poden generar text, resumir contingut, traduir, reescriure, classificar, categoritzar, analitzar i molt més.
  • Aquest potent conjunt d'eines permet als humans augmentar la seva creativitat, millorar la productivitat i abordar problemes complexos. Algunes de les aplicacions més habituals dels LLM en un entorn empresarial inclouen:
    • Automatització i eficiència: els LLM poden ajudar a complementar o assumir completament el paper de tasques relacionades amb l'idioma, com ara l'assistència al client, l'anàlisi de dades i la generació de contingut. Aquesta automatització pot reduir els costos operatius alhora que allibera recursos humans per a tasques més estratègiques.
    • Generar informació: els LLM poden escanejar ràpidament grans volums de dades de text, cosa que permet a les empreses entendre millor les tendències del mercat i els comentaris dels clients mitjançant l'esborrany de fonts com les xarxes socials, reviews, i documents de recerca, que al seu torn poden ajudar a informar les decisions empresarials.
    • Creació d'una millor experiència de client: els LLM ajuden les empreses a oferir contingut altament personalitzat als seus clients, impulsant la implicació i millorant l'experiència de l'usuari. Això pot semblar implementar un bot de xat per oferir assistència al client les 24 hores del dia, adaptar missatges de màrqueting a persones específiques d'usuari o facilitar la traducció d'idiomes i la comunicació intercultural.
  • Tot i que hi ha molts avantatges potencialstagPer utilitzar un LLM en un entorn empresarial, també hi ha limitacions potencials a tenir en compte:
    • Cost: els LLM requereixen recursos importants per desenvolupar, entrenar i desplegar. És per això que molts LLM es construeixen a partir de models bàsics, que estan entrenats prèviament amb habilitats PNL i proporcionen una comprensió bàsica del llenguatge a partir de la qual es poden construir LLM més complexos. Els LLM de codi obert i amb llicència de codi obert són gratuïts, el que els fa ideals per a organitzacions que, d'altra manera, no es podrien permetre desenvolupar un LLM per si soles.
    • Privadesa i seguretat: els LLM requereixen accés a molta informació i, de vegades, això inclou informació del client o dades comercials propietat. Això és una cosa amb la qual cal tenir especial precaució si el model és desplegat o accedeix a proveïdors de tercers.
    • Precisió i biaix: si s'entrena un model d'aprenentatge profund amb dades que estan esbiaixades estadísticament o no ofereixen una representació precisa de la població, la sortida pot ser defectuosa. Malauradament, el biaix humà existent sovint es transfereix a la intel·ligència artificial, creant així un risc per a algorismes discriminatoris i resultats de biaix. A mesura que les organitzacions continuen aprofitant la IA per millorar la productivitat i el rendiment, és fonamental que es posin en marxa estratègies per minimitzar el biaix. Això comença amb processos de disseny inclusius i una consideració més atenta de la diversitat representativa dins de les dades recollides.

IBM InstructLab i Granite Models estan revolucionant la formació de LLM

Lenovo-RHEL-AI-FIG-2

  • IBM Granite és una sèrie de models de base d'IA només per a descodificadors creats per IBM. Inicialment destinat al seu ús a la plataforma d'IA generativa i de dades basades en núvol d'IBM Watsonx juntament amb altres models, IBM va obrir el codi font d'alguns models de codi. Els models de granit s'entrenen en conjunts de dades seleccionats d'Internet, publicacions acadèmiques, conjunts de dades de codi, documents legals i financers.
  • A mesura que la IA generativa passa de l'experimentació a la creació de valor, els mètodes de formació per als models de fundació també estan evolucionant. De manera similar a com els humans aprenen a aprendre de manera més eficaç amb una major experiència, els equips de recerca d'IBM, en col·laboració amb els seus homòlegs de Red Hat, han començat a explorar com els models d'IA generativa poden aprendre de manera més eficient. El seu InstructLab llançat recentment demostra una acceleració significativa en la personalització dels models de base per a tasques específiques.
  • InstructLab és un projecte de codi obert que té com a objectiu reduir el cost d'ajustar els LLM permetent la possibilitat d'integrar canvis en un LLM sense necessitat de tornar a entrenar completament tot el model de fundació.
  • Amb la seva família de models Granite llançada recentment, utilitzant InstructLab, IBM va poder demostrar una puntuació de generació de codi un 20% més alta juntament amb una reducció del temps que es necessita per aconseguir aquesta qualitat.
  • Els models Granite són la família de grans models de llenguatge (LLM) d'IBM dissenyats per millorar la productivitat dels programadors humans. Aquests LLM varien en la mida dels paràmetres i apliquen IA generativa a múltiples modalitats, inclosos el llenguatge i el codi. Els models de base de granit s'estan afinant per crear assistents que ajudin a traduir codi d'idiomes heretats als actuals, a depurar codi i a escriure codi nou basat en instruccions senzilles en anglès. Atès l'enfocament d'IBM en la intel·ligència artificial generativa de grau empresarial, els models Granite s'han entrenat en conjunts de dades que inclouen no només la generació de codi, sinó també els relacionats amb l'àmbit acadèmic, legal i financer.
  • La formació a gran escala de nous models de fundació ha avançat significativament la IA generativa i les seves aplicacions potencials per a la humanitat. Com que els models bàsics s'apliquen a casos d'ús i aplicacions del món real, especialment a les empreses, és crucial aprofitar aquest impacte. Tanmateix, els mètodes de formació tradicionals per a aquests models bàsics requereixen recursos substancials del centre de dades, la qual cosa comporta costos operatius i de capital importants. Per fer realitat plenament la promesa de la IA generativa, les empreses han de replantejar els seus processos de formació de models. Per al desplegament generalitzat del model d'IA, les tècniques d'ajustament han d'evolucionar per incorporar més dades específiques del domini a un cost més baix. Segons els resultats demostrats fins ara, el projecte InstructLab d'IBM i Red Hat sembla estar fent avenços significatius en aquesta direcció.

Un enfocament de codi obert a la IA genètica

RHEL AI pretén fer que la IA generativa sigui més accessible, eficient i flexible per als CIO i les organitzacions de TI empresarials al núvol híbrid.
RHEL AI ajuda a aconseguir-ho mitjançant:

  • Potenciar la innovació d'IA de generació amb models Granite amb llicència de codi obert de grau empresarial i alineats amb una gran varietat de casos d'ús d'IA de generació.
  • Agilitzar l'alineació dels models d'IA genèrica als requisits empresarials amb les eines InstructLab, fent possible que els experts i desenvolupadors de dominis d'una organització aportin habilitats i coneixements únics als seus models, fins i tot sense grans habilitats en ciència de dades.
  • Entrenar i desplegar la gen AI a qualsevol lloc del núvol híbrid proporcionant totes les eines necessàries per ajustar i desplegar models per a servidors de producció allà on hi hagi dades associades.

RHEL AI també proporciona un ready on-ramp a Red Hat OpenShift AI per entrenar, ajustar i servir aquests models a escala mentre s'utilitzen les mateixes eines i conceptes.

Red Hat Enterprise Linux AI reuneix:

Lenovo-RHEL-AI-FIG-3

Models de la família Open Granite

RHEL AI inclou models de codi i llenguatge Granite desenvolupats de manera col·laborativa i amb llicència de codi obert de la comunitat InstructLab, totalment compatibles i indemnitzats per Red Hat. Aquests models Granite tenen llicència d'Apache 2 i proporcionen un accés transparent a les fonts de dades i als pesos dels models. En el futur, Red Hat Enterprise Linux AI també inclourà models Granite addicionals, inclosa la família de models de codi Granite.

Eines d'alineació de models InstructLab

  • LAB: L'alineació a gran escala per a ChatBots és un enfocament nou per a l'alineació d'instruccions i l'ajustament de grans models de llenguatge amb un enfocament basat en taxonomia que aprofita la generació de dades sintètiques d'alta qualitat. En termes més senzills, permet als usuaris personalitzar un LLM amb coneixements i habilitats específiques del domini. A continuació, InstructLab genera dades sintètiques d'alta qualitat que s'utilitzen per entrenar el LLM. S'utilitza un buffer de reproducció per evitar l'oblit.
  • InstructLab és un projecte de codi obert per millorar els grans models de llenguatge (LLM) utilitzats en aplicacions d'intel·ligència artificial generativa (gen AI). Creat per IBM i Red Hat, el projecte de la comunitat InstructLab ofereix una solució rendible per millorar l'alineació dels LLM i obre les portes perquè contribueixin aquells amb una experiència mínima d'aprenentatge automàtic.
  • Els LLM poden impulsar una varietat d'aplicacions útils, com ara chatbots i assistents de codificació. Aquests LLM poden ser propietaris (com els models GPT d'OpenAI i els models Claude d'Anthropic) o oferir diferents graus d'obertura pel que fa a les dades de preentrenament i les restriccions d'ús (com els models Llama de Meta, els models Mistral de Mistral AI i els models Granite d'IBM).
  • Els professionals de la IA sovint necessiten adaptar un LLM prèviament entrenat per satisfer les necessitats empresarials específiques. Tanmateix, hi ha limitacions sobre com es pot modificar un LLM. InstructLab utilitza un enfocament que supera aquestes limitacions. Pot millorar un LLM utilitzant significativament menys informació generada per humans i menys recursos informàtics en comparació amb els mètodes tradicionals de reciclatge. A més, permet la millora contínua del model mitjançant contribucions upstream.
  • La tècnica LAB conté quatre passos diferents (Figura 1):
    • Competències basades en taxonomia i representació del coneixement
    • Generació de dades sintètiques (SDG) amb un model docent
    • Validació de dades sintètiques amb un model crític.
    • Formació en habilitats i coneixements a la part superior del model o models d'estudiant
      Lenovo-RHEL-AI-FIG-5
  • InstructLab és el nom del programari que implementa la tècnica LAB. Consisteix en una interfície de línia d'ordres que interactua amb un repositori git local d'habilitats i coneixements, inclosos els nous que l'usuari ha afegit, per generar dades sintètiques, executar la formació del LLM, servir el model entrenat i xerrar amb ell.
  • Els usuaris poden crear el seu propi LLM personalitzat entrenant els models bàsics amb les seves pròpies habilitats i coneixements. Poden optar per compartir el model entrenat i les habilitats i coneixements afegits amb la comunitat o mantenir-los en privat

Red Hat Enterprise Linux d'arrencada optimitzat per a models Granite i InstructLab

Els models Granite i les eines InstructLab es descarreguen i es despleguen en una imatge RHEL d'arrencada amb una pila de programari optimitzada per a acceleradors de maquinari populars de proveïdors com AMD, Intel i NVIDIA. A més, aquestes imatges de RHEL AI s'iniciaran i s'executaran a través de l'ecosistema certificat Red Hat, inclosos els núvols públics i els servidors optimitzats per a IA de Lenovo.

Lenovo-RHEL-AI-FIG-6

Suport empresarial, cicle de vida i indemnització

A disponibilitat general (GA), les subscripcions de Red Hat Enterprise Linux AI inclouran suport empresarial, un cicle de vida complet del producte que comença amb el model i el programari Granite 7B i una indemnització IP per part de Red Hat.

Quins problemes soluciona RHEL AI

Lenovo-RHEL-AI-FIG-7

Començar amb la IA generativa sovint és molt difícil. Amb InstructLab* i els models Granite, fem accessible a tothom la possibilitat d'afegir coneixements i habilitats al model lingüístic. Això permet a les empreses afegir els seus coneixements i habilitats específics per alinear el model al seu cas d'ús específic.

Lenovo-RHEL-AI-FIG-8

Les empreses no se senten còmodes utilitzant grans models d'idioma a causa de la llicència desconeguda del text publicat. RHEL AI inclou una indemnització i el model en si té llicència sota la llicència de codi obert Apache-2.0.

Lenovo-RHEL-AI-FIG-9

Començar amb la IA generativa és molt car. RHEL AI i InstructLab ofereixen una manera perquè les persones comencin d'una manera rendible i escalar quan sigui necessari.

Resum

  • El llançament de ChatGPT va despertar un gran interès per la IA generativa i el ritme d'innovació només s'ha accelerat des de llavors. Les empreses han passat de les avaluacions inicials dels serveis d'IA generativa al desenvolupament d'aplicacions habilitades per a IA. Un ecosistema en ràpida expansió d'opcions de models oberts ha impulsat més innovacions en IA, demostrant que no hi haurà un únic model dominant. Els clients es beneficiaran d'una àmplia gamma d'opcions per satisfer requisits específics, tot això s'accelerarà encara més gràcies a un enfocament obert a la innovació.
  • Implementar una estratègia d'IA implica més que simplement triar un model; Les organitzacions tecnològiques necessiten l'experiència per adaptar un model específic al seu cas d'ús i abordar els costos significatius de la implementació de la IA. L'escassetat d'habilitats en ciències de dades s'agreuja amb requisits financers substancials, com ara:
    • Adquirir infraestructura d'IA o consumir serveis d'IA
    • El complex procés d'ajustament dels models d'IA per a necessitats empresarials específiques Integració de la IA a les aplicacions empresarials
    • Gestió tant del cicle de vida de l'aplicació com del model.
  • Per reduir realment les barreres d'entrada a la innovació en IA, les empreses han de poder ampliar la llista de qui pot treballar en iniciatives d'IA i alhora controlar aquests costos. Amb les eines d'alineació InstructLab, els models Granite i la intel·ligència artificial de RHEL, Red Hat pretén aplicar els avantatges dels veritables projectes de codi obert (de lliure accés i reutilitzable, transparent i obert a contribucions) a GenAI en un esforç per eliminar aquests obstacles.

Famílies de productes relacionades

Les famílies de productes relacionades amb aquest document són les següents:

Red Hat Alliance

Avisos

  • És possible que Lenovo no ofereixi els productes, serveis o característiques descrits en aquest document a tots els països. Consulteu el vostre representant local de Lenovo per obtenir informació sobre els productes i serveis disponibles actualment a la vostra zona. Qualsevol referència a un producte, programa o servei de Lenovo no pretén indicar o implicar que només es pot utilitzar aquest producte, programa o servei de Lenovo. En el seu lloc, es pot utilitzar qualsevol producte, programa o servei funcionalment equivalent que no infringeixi cap dret de propietat intel·lectual de Lenovo. Tanmateix, és responsabilitat de l'usuari avaluar i verificar el funcionament de qualsevol altre producte, programa o servei. És possible que Lenovo tingui patents o sol·licituds de patent pendents que cobreixen la matèria descrita en aquest document. La presentació d'aquest document no us atorga cap llicència a aquestes patents. Podeu enviar les consultes de llicència, per escrit, a:
    Lenovo (Estats Units), Inc.
    8001 Impuls de desenvolupament
    Morrisville, NC 27560
    EUA
    Atenció: Director de llicències de Lenovo
  • LENOVO PROPORCIONA AQUESTA PUBLICACIÓ "TAL CUAL" SENSE GARANTIES DE CAP TIPUS, JA SIGUI EXPLÍCITA NI IMPLÍCITA, INCLOSANT, PERÒ NO LIMITAR-SE, LES GARANTIES IMPLÍCITES DE NO INFRACCIÓ, COMERCIABILITAT O IDONEIDAD PER A UN FINS PARTICULAR. Algunes jurisdiccions no permeten l'exempció de garanties explícites o implícites en determinades transaccions, per tant, és possible que aquesta declaració no s'apliqui a vostè.
  • Aquesta informació pot incloure imprecisions tècniques o errors tipogràfics. Periòdicament es fan canvis a la informació continguda; aquests canvis s'incorporaran a les noves edicions de la publicació. Lenovo pot fer millores i/o canvis en els productes i/o els programes descrits en aquesta publicació en qualsevol moment sense previ avís.
  • Els productes descrits en aquest document no estan pensats per al seu ús en aplicacions d'implantació o en altres aplicacions de suport vital on el mal funcionament pot provocar lesions o la mort de persones. La informació continguda en aquest document no afecta ni modifica les especificacions ni les garanties del producte Lenovo. Res d'aquest document no funcionarà com a llicència o indemnització expressa o implícita segons els drets de propietat intel·lectual de Lenovo o de tercers. Tota la informació continguda en aquest document s'ha obtingut en entorns específics i es presenta com a il·lustració. El resultat obtingut en altres entorns operatius pot variar. Lenovo pot utilitzar o distribuir qualsevol de la informació que proporcioneu de la manera que cregui adequada sense incórrer en cap obligació amb vostè.
  • Qualsevol referència que no sigui Lenovo en aquesta publicació Web Els llocs es proporcionen només per comoditat i no serveixen de cap manera com a aval d'aquests Web llocs. Els materials en aquells Web Els llocs web no formen part dels materials d'aquest producte Lenovo i l'ús d'aquests Web llocs és sota el vostre propi risc. Qualsevol dada de rendiment continguda aquí es va determinar en un entorn controlat. Per tant, el resultat obtingut en altres entorns operatius pot variar significativament. És possible que algunes mesures s'hagin fet en sistemes de nivell de desenvolupament i no hi ha cap garantia que aquestes mesures siguin iguals en sistemes generalment disponibles. A més, algunes mesures poden haver estat estimades mitjançant extrapolació. Els resultats reals poden variar. Els usuaris d'aquest document han de verificar les dades aplicables al seu entorn específic.
  • © Copyright Lenovo 2025. Tots els drets reservats.
  • Aquest document, LP2032, es va crear o actualitzar el 19 de setembre de 2024.
  • Envieu-nos els vostres comentaris d'una de les maneres següents:
  • Aquest document està disponible en línia a https://lenovopress.lenovo.com/LP2032.

Marques comercials

  • Lenovo i el logotip de Lenovo són marques comercials o marques comercials registrades de Lenovo als Estats Units, altres països o ambdós. Hi ha disponible una llista actual de marques comercials de Lenovo al Web a https://www.lenovo.com/us/en/legal/copytrade/.
  • Els termes següents són marques comercials de Lenovo als Estats Units, altres països o tots dos: Lenovo®
  • Els termes següents són marques comercials d'altres empreses:
  • AMD és una marca comercial d'Advanced Micro Devices, Inc.
  • Intel® és una marca comercial d'Intel Corporation o de les seves filials.
  • Linux® és la marca comercial de Linus Torvalds als EUA i altres països.
  • Altres noms d'empreses, productes o serveis poden ser marques comercials o marques de servei d'altres persones.

Documents/Recursos

Lenovo RHEL AI [pdf] Guia d'usuari
RHEL AI, RHEL, AI

Referències

Deixa un comentari

La teva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats *