Nothing Special   »   [go: up one dir, main page]

Lenovo-LOGO

Lenovo RHEL IA

Lenovo-RHEL-AI-PRODUTO

Informações do produto

Especificações:

  • Nome do produto: RHEL AI (Red Hat Enterprise Linux AI)
  • Função principal: Acelerar implantações de inteligência artificial e aprendizado de máquina
  • Principais recursos: ambiente de servidor único com foco em segurança para experimentar grandes modelos de linguagem

Perguntas frequentes

P: Qual é o principal objetivo do RHEL AI?

R: O RHEL AI tem como objetivo fornecer uma plataforma segura e econômica para experimentar grandes modelos de linguagem e acelerar implantações de IA.

P: Como o RHEL AI aproveita os modelos de base?

R: O RHEL AI usa modelos básicos com uma compreensão contextual geral dos padrões para permitir o ajuste fino de tarefas específicas do setor.

P: Quais são alguns dos principais benefícios de usar o RHEL AI para IA generativa?

R: O RHEL AI permite que as empresas treinem e implantem modelos de IA generativos em ambientes de nuvem híbrida e fornece acesso à plataforma OpenShift AI da Red Hat para desenvolvimento adicional de modelos.

O que é RHEL AI? Um guia para o caminho de código aberto para informações de posicionamento de IA

Acelerando implantações de inteligência artificial e aprendizado de máquina

  • A Inteligência Artificial (IA) é uma nova ferramenta poderosa no setor de TI, mas, como acontece com a maioria das ferramentas digitais, um tamanho não serve para todos. Um bot de IA geral treinado em conteúdo aleatório da Internet de 5 anos atrás pode impressionar um usuário casual, mas sua organização provavelmente precisa de conhecimento atual e especializado sobre o desenvolvimento (e possivelmente confidenciais) de domínios. Você precisa de uma IA que tenha sido ajustada para sua organização, e não há melhor maneira de obtê-la do que com o Red Hat Enterprise Linux AI (RHEL AI) e o InstructLab.
  • No entanto, a implantação dessas tecnologias pode ser complexa. À medida que os cientistas de dados trabalham para construir seus modelos, eles frequentemente enfrentam uma falta de alinhamento entre ferramentas em rápida evolução. Essas discrepâncias podem prejudicar a produtividade e a colaboração entre cientistas de dados, desenvolvedores de software e operações de TI. O dimensionamento de implantações de IA/ML pode ser limitado em recursos e administrativamente complexo, exigindo recursos caros de unidade de processamento gráfico (GPU) para aceleração de hardware e cargas de trabalho distribuídas para IA generativa (IA gen). Plataformas de nuvem populares oferecem escalabilidade e conjuntos de ferramentas atraentes, mas frequentemente prendem os usuários, limitando as escolhas arquitetônicas e de implantação.
  • Graças à comunidade de código aberto, construir uma IA não é tão assustador quanto pode parecer à primeira vista. Vários LLMs já existem e, graças ao InstructLab, eles são fáceis de modificar para as necessidades da sua organização.
  • Com RHEL AI mais conhecimento rudimentar de Python e YAML, você pode trazer uma IA personalizada para sua organização. Na verdade, a Red Hat Developers lançou um novo caminho de aprendizagem de IA que o orienta durante o processo. O curso complementar revela tudo o que você precisa saber sobre as etapas de coleta de dados, pré-treinamento e ajuste fino, além de aprimorar um LLM existente. O caminho de aprendizagem inclui um guia passo a passo sobre como inicializar seu ambiente Python, baixar e treinar um modelo e como disponibilizá-lo para seus usuários.
  • Frequentemente, usuários de IA querem experimentar modelos de linguagem grandes (LLMs) antes de desenvolver e escalar para um ambiente de produção muito maior. No entanto, experimentar aplicativos populares baseados em LLM, como ChatGPT, significa compartilhar informações pessoais sensíveis, o que frequentemente levanta preocupações sobre como os dados do usuário são armazenados e usados.
  • O RHEL AI aborda esse desafio fornecendo um ambiente de servidor único, de baixo custo e focado em segurança para experimentar grandes modelos de linguagem. O RHEL torna fácil para usuários com pouca ou nenhuma experiência em ciência de dados começarem a desenvolver e aprimorar grandes modelos de linguagem sem nenhuma preocupação com privacidade ou segurança de dados.

CLIQUE AQUI PARA VERIFICAR ATUALIZAÇÕES

O que é o Red Hat Enterprise Linux AI e como ele funciona?

  • O Red Hat Enterprise Linux AI é uma plataforma de modelo de base projetada para ajudar você a desenvolver, testar e executar os modelos de IA do Granite de código aberto. O RHEL AI é baseado no projeto de código aberto InstructLab e combina os modelos de linguagem grande (LLM) do Granite da IBM Research com as ferramentas de alinhamento de modelos do InstructLab. Com base na metodologia Large-scale Alignment for chatBots (LAB), o RHEL AI pode produzir uma imagem RHEL inicializável para que sua implantação de IA seja tão fácil quanto inicializar um contêiner ou máquina virtual. Seu foco principal é permitir que os usuários desenvolvam, testem e executem modelos de IA de geração para alimentar aplicativos empresariais de forma mais integrada.
  • O Red Hat Enterprise Linux AI permite portabilidade entre ambientes de nuvem híbrida e torna possível dimensionar seus fluxos de trabalho de IA com o Red Hat OpenShift® AI e avançar para o IBM watsonx.ai com recursos adicionais para desenvolvimento de IA empresarial, gerenciamento de dados e governança de modelos.
  • Para contextualizar, um modelo de fundação é um tipo de modelo de machine learning (ML) que é pré-treinado para executar uma série de tarefas. Até recentemente, os sistemas de inteligência artificial (IA) eram ferramentas especializadas, o que significa que um modelo de ML seria treinado para uma aplicação específica ou caso de uso único. O termo modelo de fundação (também conhecido como modelo base) entrou em nosso léxico quando especialistas começaram a notar 2 tendências dentro do campo de machine learning:
    • Um pequeno número de arquiteturas de aprendizado profundo estava sendo usado para obter resultados para uma ampla variedade de tarefas.
    • Novos conceitos podem surgir de um modelo de inteligência artificial (IA) que não foram originalmente pretendidos em seu treinamento.
  • Os modelos de fundação foram programados para funcionar com uma compreensão contextual geral de padrões, estruturas e representações. Essa compreensão fundamental de como comunicar e identificar padrões cria uma linha de base de conhecimento que pode ser modificada ainda mais, ou ajustada, para executar tarefas específicas de domínio para praticamente qualquer indústria.
  • Com a base tecnológica do Linux, contêineres e automação, a estratégia de nuvem híbrida aberta e o portfólio de IA da Red Hat oferecem a flexibilidade de executar seus aplicativos de IA em qualquer lugar que você precisar.
    Lenovo-RHEL-AI-FIG-1
  • O lançamento do ChatGPT despertou um tremendo interesse em IA generativa, e o ritmo da inovação só acelerou desde então. As empresas fizeram a transição de avaliações iniciais de serviços de IA generativa para o desenvolvimento de aplicativos habilitados para IA. Um ecossistema em rápida expansão de opções de modelos abertos alimentou ainda mais a inovação em IA, demonstrando que não haverá um único modelo dominante. Os clientes se beneficiarão de uma gama diversificada de opções para atender a requisitos específicos, todos os quais serão ainda mais acelerados por uma abordagem aberta à inovação.
  • Embora a IA generativa ofereça imenso potencial, os custos associados à aquisição, treinamento e ajuste fino de modelos de linguagem grandes (LLMs) podem ser exorbitantes, com alguns modelos líderes custando quase US$ 200 milhões para treinar antes do lançamento. Isso não inclui o custo de alinhar o modelo com os requisitos ou dados de uma organização específica, o que normalmente requer cientistas de dados ou desenvolvedores altamente especializados. Independentemente do modelo escolhido, o alinhamento é necessário para adaptá-lo aos dados e processos específicos da empresa, tornando a eficiência e a agilidade cruciais para a IA em ambientes de produção do mundo real.
  • A Red Hat prevê que, na próxima década, modelos de IA menores, mais eficientes e desenvolvidos especificamente se tornarão uma parte significativa da pilha de TI empresarial, juntamente com aplicativos nativos da nuvem. No entanto, para atingir isso, a IA generativa deve ser mais acessível e disponível, desde seus custos para seus contribuidores até seus locais de implantação na nuvem híbrida. Por décadas, comunidades de código aberto ajudaram a lidar com desafios semelhantes para problemas complexos de software por meio de contribuições de diversos grupos de usuários. Uma abordagem semelhante pode reduzir as barreiras para a adoção eficaz da IA ​​generativa.
  • Gen AI é um catalisador para mudanças inovadoras, interrompendo tudo, desde como o software é feito até como nos comunicamos. Mas, frequentemente, os LLMs usados ​​para gen AI são rigidamente controlados e não podem ser avaliados ou melhorados sem habilidades especializadas e altos custos. O futuro não deve estar nas mãos de poucos.
  • Com o RHEL Al e sua abordagem de código aberto, você pode incentivar a inovação de IA geral com confiança e transparência, ao mesmo tempo em que reduz custos e remove barreiras de entrada.
  • Usando o RHEL AI, as empresas poderão treinar e implementar IA generativa em qualquer lugar na nuvem híbrida, perto de onde seus dados residem. Além disso, a plataforma fornece um on-ramp para a plataforma OpenShift AI da Red Hat para treinamento, ajuste e atendimento de modelos de IA generativos usando as mesmas ferramentas e conceitos

O que são grandes modelos de linguagem e como eles funcionam?

  • Os LLMs adquirem uma compreensão da linguagem por meio de um método conhecido como aprendizado não supervisionado. Esse processo envolve fornecer um modelo de aprendizado de máquina com vastos conjuntos de dados de palavras e frases, permitindo que ele aprenda por example. Esta fase de pré-treinamento não supervisionada é fundamental para o desenvolvimento de LLMs como GPT-3 e BERT.
  • Mesmo sem instruções humanas explícitas, o computador pode extrair informações dos dados, estabelecer conexões e “aprender” sobre a linguagem. Conforme o modelo aprende os padrões que governam o sequenciamento de palavras, ele pode prever como as sentenças devem ser estruturadas com base na probabilidade. O resultado é um modelo capaz de capturar relacionamentos intrincados entre palavras e sentenças.
  • LLMs exigem recursos computacionais substanciais devido ao seu cálculo constante de probabilidades para encontrar conexões. Um desses recursos é a unidade de processamento gráfico (GPU). Uma GPU é um componente de hardware especializado projetado para tarefas complexas de processamento paralelo, tornando-a ideal para modelos de aprendizado de máquina e aprendizado profundo que exigem cálculos extensivos, como LLMs.
  • GPUs são cruciais para acelerar o treinamento e a operação de transformadores, um tipo de arquitetura de software projetada especificamente para tarefas de processamento de linguagem natural (NLP) que a maioria dos LLMs implementa. Transformadores são blocos de construção fundamentais para modelos de fundação LLM populares como ChatGPT e BERT.
  • A arquitetura Transformer aprimora os modelos de machine learning capturando com eficiência relacionamentos contextuais e dependências entre elementos em uma sequência de dados, como palavras em uma frase. Ela usa mecanismos de autoatenção (parâmetros) para pesar a importância de diferentes elementos, melhorando a compreensão e o desempenho. Os parâmetros definem limites, que são cruciais para dar sentido à vasta quantidade de dados processados ​​por algoritmos de deep learning.
  • A arquitetura do Transformer incorpora milhões ou bilhões de parâmetros, permitindo capturar padrões e nuances de linguagem intrincados. O termo “grande” em “modelo de linguagem grande” se refere ao número substancial de parâmetros necessários para que um LLM opere efetivamente.
  • Os LLMs modernos exibem uma capacidade incomparável de entender e utilizar a linguagem, superando o que era anteriormente concebível a partir de um computador pessoal. Esses modelos de aprendizado de máquina podem gerar texto, resumir conteúdo, traduzir, reescrever, classificar, categorizar, analisar e muito mais.
  • Este poderoso conjunto de ferramentas capacita os humanos a aumentar sua criatividade, melhorar a produtividade e lidar com problemas complexos. Algumas das aplicações mais comuns de LLMs em um ambiente de negócios incluem:
    • Automação e eficiência: LLMs podem ajudar a suplementar ou assumir inteiramente o papel de tarefas relacionadas a idiomas, como suporte ao cliente, análise de dados e geração de conteúdo. Essa automação pode reduzir custos operacionais enquanto libera recursos humanos para tarefas mais estratégicas.
    • Gerando insights: os LLMs podem escanear rapidamente grandes volumes de dados de texto, permitindo que as empresas entendam melhor as tendências de mercado e o feedback do cliente, coletando fontes como mídia social, reviews e artigos de pesquisa, que por sua vez podem ajudar a informar decisões empresariais.
    • Criando uma melhor experiência do cliente: LLMs ajudam as empresas a entregar conteúdo altamente personalizado aos seus clientes, impulsionando o engajamento e melhorando a experiência do usuário. Isso pode parecer implementar um chatbot para fornecer suporte ao cliente 24 horas por dia, adaptando mensagens de marketing para personas específicas do usuário ou facilitando a tradução de idiomas e a comunicação intercultural.
  • Embora existam muitas vantagens potenciaistagAlém de usar um LLM em um ambiente empresarial, também há limitações potenciais a serem consideradas:
    • Custo: LLMs exigem recursos significativos para desenvolver, treinar e implantar. É por isso que muitos LLMs são construídos a partir de modelos de base, que são pré-treinados com habilidades de PNL e fornecem uma compreensão básica da linguagem a partir da qual LLMs mais complexos podem ser construídos. LLMs de código aberto e licenciados por código aberto são gratuitos para uso, tornando-os ideais para organizações que, de outra forma, não teriam condições de desenvolver um LLM por conta própria.
    • Privacidade e segurança: LLMs exigem acesso a muitas informações, e às vezes isso inclui informações de clientes ou dados comerciais proprietários. Isso é algo para ser especialmente cauteloso se o modelo for implantado ou acessado por provedores terceirizados.
    • Precisão e viés: se um modelo de aprendizado profundo for treinado em dados estatisticamente tendenciosos ou não fornecer uma representação precisa da população, a saída pode ser falha. Infelizmente, o viés humano existente é frequentemente transferido para a inteligência artificial, criando assim o risco de algoritmos discriminatórios e saídas tendenciosas. À medida que as organizações continuam a alavancar a IA para melhorar a produtividade e o desempenho, é fundamental que estratégias sejam colocadas em prática para minimizar o viés. Isso começa com processos de design inclusivos e uma consideração mais cuidadosa da diversidade representativa dentro dos dados coletados.

IBM InstructLab e Granite Models estão revolucionando o treinamento LLM

Lenovo-RHEL-AI-FIG-2

  • IBM Granite é uma série de modelos de base de IA somente decodificadores criados pela IBM. Inicialmente destinados ao uso na plataforma de dados e IA generativa baseada em nuvem da IBM Watsonx, juntamente com outros modelos, a IBM abriu o código-fonte de alguns modelos de código. Os modelos Granite são treinados em conjuntos de dados selecionados da Internet, publicações acadêmicas, conjuntos de dados de código, documentos legais e financeiros.
  • À medida que a IA generativa muda da experimentação para a criação de valor, os métodos de treinamento para modelos de base também estão evoluindo. Semelhante a como os humanos aprendem a aprender de forma mais eficaz com maior expertise, as equipes da IBM Research, em colaboração com as contrapartes da Red Hat, começaram a explorar como os modelos de IA generativa podem aprender de forma mais eficiente. Seu InstructLab lançado recentemente demonstra uma aceleração significativa na personalização de modelos de base para tarefas específicas.
  • O InstructLab é um projeto de código aberto que visa reduzir o custo do ajuste fino de LLMs, permitindo a capacidade de integrar alterações a um LLM sem a necessidade de treinar completamente todo o modelo de base.
  • Com sua família de modelos Granite lançada recentemente, usando o InstructLab, a IBM conseguiu demonstrar uma pontuação de geração de código 20% maior, além de uma redução no tempo necessário para atingir essa qualidade.
  • Os modelos Granite são a família de modelos de linguagem grande (LLMs) da IBM projetados para aumentar a produtividade de programadores humanos. Esses LLMs variam em tamanho de parâmetro e aplicam IA generativa a várias modalidades, incluindo linguagem e código. Os modelos de fundação Granite estão sendo ajustados para criar assistentes que auxiliam na tradução de código de linguagens legadas para as atuais, na depuração de código e na escrita de novo código com base em instruções em inglês simples. Dado o foco da IBM em IA generativa de nível empresarial, os modelos Granite foram treinados em conjuntos de dados que abrangem não apenas a geração de código, mas também aqueles relacionados a acadêmicos, jurídicos e financeiros.
  • O treinamento em larga escala de novos modelos de base avançou significativamente a IA generativa e suas potenciais aplicações para a humanidade. À medida que os modelos de base são aplicados a casos de uso e aplicações do mundo real, especialmente dentro das empresas, é crucial aproveitar esse impacto. No entanto, os métodos tradicionais de treinamento para esses modelos de base exigem recursos substanciais do data center, levando a custos significativos de capital e operacionais. Para concretizar totalmente a promessa da IA ​​generativa, as empresas devem repensar seus processos de treinamento de modelos. Para a implantação generalizada do modelo de IA, as técnicas de ajuste fino precisam evoluir para incorporar mais dados específicos do domínio a um custo menor. Com base nos resultados demonstrados até agora, o projeto InstructLab da IBM e da Red Hat parece estar fazendo avanços significativos nessa direção.

Uma abordagem de código aberto para IA de geração

O RHEL AI visa tornar a IA generativa mais acessível, eficiente e flexível para CIOs e organizações de TI corporativas na nuvem híbrida.
O RHEL AI ajuda a realizar isso por meio de:

  • Capacitando a inovação de IA de geração com modelos Granite de nível empresarial e licenciados de código aberto, alinhados a uma ampla variedade de casos de uso de IA de geração.
  • Simplificando o alinhamento de modelos de IA de geração aos requisitos de negócios com as ferramentas do InstructLab, possibilitando que especialistas de domínio e desenvolvedores dentro de uma organização contribuam com habilidades e conhecimentos exclusivos para seus modelos, mesmo sem amplas habilidades em ciência de dados.
  • Treinamento e implantação de IA de geração em qualquer lugar na nuvem híbrida, fornecendo todas as ferramentas necessárias para ajustar e implantar modelos para servidores de produção onde quer que os dados associados estejam.

O RHEL AI também fornece um pronto on-ramp ao Red Hat OpenShift AI pelo treinamento, ajuste e fornecimento desses modelos em escala, usando as mesmas ferramentas e conceitos.

O Red Hat Enterprise Linux AI reúne:

Lenovo-RHEL-AI-FIG-3

Modelos da família Open Granite

O RHEL AI inclui modelos de linguagem e código Granite de alto desempenho, licenciados de código aberto e desenvolvidos colaborativamente pela comunidade InstructLab, totalmente suportados e indenizados pela Red Hat. Esses modelos Granite são licenciados pelo Apache 2 e fornecem acesso transparente a fontes de dados e pesos de modelo. No futuro, o Red Hat Enterprise Linux AI também incluirá modelos Granite adicionais, incluindo a família de modelos de código Granite.

Ferramentas de alinhamento de modelos InstructLab

  • LAB: Alinhamento em larga escala para ChatBots é uma nova abordagem para alinhamento de instruções e ajuste fino de grandes modelos de linguagem com uma abordagem orientada por taxonomia, alavancando a geração de dados sintéticos de alta qualidade. Em termos mais simples, permite que os usuários personalizem um LLM com conhecimento e habilidades específicas do domínio. O InstructLab então gera dados sintéticos de alta qualidade que são usados ​​para treinar o LLM. Um buffer de repetição é usado para evitar esquecimento.
  • O InstructLab é um projeto de código aberto para aprimorar modelos de linguagem grandes (LLMs) usados ​​em aplicativos de inteligência artificial generativa (gen AI). Criado pela IBM e Red Hat, o projeto da comunidade InstructLab fornece uma solução econômica para melhorar o alinhamento de LLMs e abre as portas para aqueles com experiência mínima em aprendizado de máquina contribuírem.
  • Os LLMs podem conduzir uma variedade de aplicativos úteis, incluindo chatbots e assistentes de codificação. Esses LLMs podem ser proprietários (como os modelos GPT da OpenAI e os modelos Claude da Anthropic) ou oferecer vários graus de abertura em relação a dados de pré-treinamento e restrições de uso (como os modelos Llama da Meta, os modelos Mistral da Mistral AI e os modelos Granite da IBM).
  • Os profissionais de IA frequentemente precisam adaptar um LLM pré-treinado para atender às necessidades comerciais específicas. No entanto, há limitações sobre como um LLM pode ser modificado. O InstructLab emprega uma abordagem que supera essas limitações. Ele pode aprimorar um LLM usando significativamente menos informações geradas por humanos e menos recursos de computação em comparação aos métodos tradicionais de retreinamento. Além disso, ele permite a melhoria contínua do modelo por meio de contribuições upstream.
  • A técnica LAB contém quatro etapas distintas (Figura 1):
    • Representação de habilidades e conhecimento baseada em taxonomia
    • Geração de dados sintéticos (ODS) com um modelo de professor
    • Validação de dados sintéticos com um modelo crítico.
    • Treinamento de habilidades e conhecimentos sobre o(s) modelo(s) do aluno
      Lenovo-RHEL-AI-FIG-5
  • InstructLab é o nome do software que implementa a técnica LAB. Ele consiste em uma interface de linha de comando que interage com um repositório git local de habilidades e conhecimento, incluindo novos que o usuário adicionou, para gerar dados sintéticos, executar o treinamento do LLM, servir o modelo treinado e conversar com ele.
  • Os usuários podem criar seu próprio LLM personalizado treinando os modelos base com suas próprias habilidades e conhecimento. Eles podem escolher compartilhar o modelo treinado e as habilidades e conhecimento adicionados com a comunidade ou mantê-los privados

Red Hat Enterprise Linux inicializável otimizado para modelos Granite e InstructLab

Os modelos Granite e as ferramentas InstructLab são baixados e implantados em uma imagem RHEL inicializável com uma pilha de software otimizada para aceleradores de hardware populares de fornecedores como AMD, Intel e NVIDIA. Além disso, essas imagens RHEL AI inicializarão e serão executadas no Red Hat Certified Ecosystem, incluindo nuvens públicas e servidores otimizados para IA da Lenovo.

Lenovo-RHEL-AI-FIG-6

Suporte empresarial, ciclo de vida e indenização

Na disponibilidade geral (GA), as assinaturas do Red Hat Enterprise Linux AI incluirão suporte empresarial, um ciclo de vida completo do produto, começando com o modelo Granite 7B e software, e indenização de propriedade intelectual pela Red Hat.

Quais problemas o RHEL AI resolve

Lenovo-RHEL-AI-FIG-7

Começar com Generative AI é frequentemente muito desafiador. Com o InstructLab* e os modelos Granite, tornamos a capacidade de adicionar conhecimento e habilidades ao modelo de linguagem acessível a todos. Isso permite que as empresas adicionem seus conhecimentos e habilidades específicos para alinhar o modelo ao seu caso de uso específico.

Lenovo-RHEL-AI-FIG-8

As empresas não se sentem confortáveis ​​usando grandes modelos de linguagem devido à licença desconhecida do texto gerado. O RHEL AI inclui indenização e o modelo em si é licenciado sob a licença Apache-2.0 Open Source.

Lenovo-RHEL-AI-FIG-9

Começar com Generative AI é muito caro. RHEL AI e InstructLab fornecem uma maneira para as pessoas começarem de forma econômica e escalarem quando necessário.

Resumo

  • O lançamento do ChatGPT despertou um tremendo interesse em IA generativa, e o ritmo da inovação só acelerou desde então. As empresas fizeram a transição de avaliações iniciais de serviços de IA generativa para o desenvolvimento de aplicativos habilitados para IA. Um ecossistema em rápida expansão de opções de modelos abertos alimentou ainda mais a inovação em IA, demonstrando que não haverá um único modelo dominante. Os clientes se beneficiarão de uma gama diversificada de opções para atender a requisitos específicos, todos os quais serão ainda mais acelerados por uma abordagem aberta à inovação.
  • Implementar uma estratégia de IA envolve mais do que simplesmente escolher um modelo; organizações de tecnologia precisam de expertise para adaptar um modelo específico ao seu caso de uso e lidar com os custos significativos da implementação de IA. A escassez de habilidades em ciência de dados é agravada por requisitos financeiros substanciais, incluindo:
    • Aquisição de infraestrutura de IA ou consumo de serviços de IA
    • O complexo processo de ajuste de modelos de IA para necessidades comerciais específicas Integração de IA em aplicativos empresariais
    • Gerenciando o ciclo de vida do aplicativo e do modelo.
  • Para realmente reduzir as barreiras de entrada para a inovação em IA, as empresas precisam ser capazes de expandir a lista de quem pode trabalhar em iniciativas de IA e, ao mesmo tempo, controlar esses custos. Com as ferramentas de alinhamento do InstructLab, os modelos Granite e o RHEL AI, a Red Hat visa aplicar os benefícios de verdadeiros projetos de código aberto – livremente acessíveis e reutilizáveis, transparentes e abertos a contribuições – ao GenAI em um esforço para remover esses obstáculos.

Famílias de produtos relacionados

As famílias de produtos relacionadas a este documento são as seguintes:

Aliança Red Hat

Avisos

  • A Lenovo pode não oferecer os produtos, serviços ou recursos discutidos neste documento em todos os países. Consulte seu representante local da Lenovo para obter informações sobre os produtos e serviços disponíveis atualmente em sua área. Qualquer referência a um produto, programa ou serviço da Lenovo não pretende declarar ou implicar que somente aquele produto, programa ou serviço da Lenovo pode ser usado. Qualquer produto, programa ou serviço funcionalmente equivalente que não infrinja nenhum direito de propriedade intelectual da Lenovo pode ser usado em seu lugar. No entanto, é responsabilidade do usuário avaliar e verificar a operação de qualquer outro produto, programa ou serviço. A Lenovo pode ter patentes ou pedidos de patentes pendentes cobrindo o assunto descrito neste documento. O fornecimento deste documento não lhe dá nenhuma licença para essas patentes. Você pode enviar consultas de licença, por escrito, para:
    Lenovo (Estados Unidos), Inc.
    8001 Unidade de Desenvolvimento
    Morrisville, Carolina do Norte 27560
    EUA
    Atenção: Diretor de Licenciamento da Lenovo
  • A LENOVO FORNECE ESTA PUBLICAÇÃO "NO ESTADO EM QUE SE ENCONTRA", SEM GARANTIA DE QUALQUER TIPO, EXPRESSA OU IMPLÍCITA, INCLUINDO, MAS NÃO SE LIMITANDO A, GARANTIAS IMPLÍCITAS DE NÃO VIOLAÇÃO, COMERCIALIZAÇÃO OU ADEQUAÇÃO A UM DETERMINADO FIM. Algumas jurisdições não permitem a isenção de garantias expressas ou implícitas em certas transações, portanto, esta declaração pode não se aplicar a você.
  • Estas informações podem incluir imprecisões técnicas ou erros tipográficos. Periodicamente, são feitas alterações nas informações aqui contidas; essas alterações serão incorporadas em novas edições da publicação. A Lenovo pode fazer melhorias e/ou alterações nos produtos e/ou programas descritos nesta publicação a qualquer momento, sem aviso prévio.
  • Os produtos descritos neste documento não se destinam ao uso em implantes ou outras aplicações de suporte à vida, onde o mau funcionamento pode resultar em ferimentos ou morte de pessoas. As informações contidas neste documento não afetam ou alteram as especificações ou garantias do produto Lenovo. Nada neste documento deve operar como uma licença ou indenização expressa ou implícita sob os direitos de propriedade intelectual da Lenovo ou de terceiros. Todas as informações contidas neste documento foram obtidas em ambientes específicos e são apresentadas como uma ilustração. O resultado obtido em outros ambientes operacionais pode variar. A Lenovo pode usar ou distribuir qualquer informação que você fornecer de qualquer maneira que considere apropriada, sem incorrer em qualquer obrigação para com você.
  • Quaisquer referências nesta publicação a não-Lenovo Web os sites são fornecidos apenas para sua conveniência e não servem de forma alguma como um endosso daqueles Web sites. Os materiais nesses Web os sites não fazem parte dos materiais deste produto Lenovo e o uso desses Web sites é por sua conta e risco. Quaisquer dados de desempenho aqui contidos foram determinados em um ambiente controlado. Portanto, o resultado obtido em outros ambientes operacionais pode variar significativamente. Algumas medições podem ter sido feitas em sistemas de nível de desenvolvimento e não há garantia de que essas medições serão as mesmas em sistemas geralmente disponíveis. Além disso, algumas medições podem ter sido estimadas por extrapolação. Os resultados reais podem variar. Os usuários deste documento devem verificar os dados aplicáveis ​​para seu ambiente específico.
  • © Copyright Lenovo 2025. Todos os direitos reservados.
  • Este documento, LP2032, foi criado ou atualizado em 19 de setembro de 2024.
  • Envie-nos seus comentários de uma das seguintes maneiras:
  • Este documento está disponível online em https://lenovopress.lenovo.com/LP2032.

Marcas registradas

  • Lenovo e o logotipo Lenovo são marcas comerciais ou marcas registradas da Lenovo nos Estados Unidos, em outros países ou em ambos. Uma lista atual de marcas comerciais da Lenovo está disponível no Web em https://www.lenovo.com/us/en/legal/copytrade/.
  • Os termos a seguir são marcas registradas da Lenovo nos Estados Unidos, em outros países ou em ambos: Lenovo®
  • Os seguintes termos são marcas registradas de outras empresas:
  • AMD é uma marca registrada da Advanced Micro Devices, Inc.
  • Intel® é uma marca comercial da Intel Corporation ou de suas subsidiárias.
  • Linux® é a marca registrada de Linus Torvalds nos EUA e em outros países.
  • Outros nomes de empresas, produtos ou serviços podem ser marcas comerciais ou marcas de serviços de terceiros.

Documentos / Recursos

Lenovo RHEL IA [pdf] Guia do usuário
RHEL IA, RHEL, IA

Referências

Deixe um comentário

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados *