Você está visualizando atualmente A questão de validação de entrada inadequada no Compressor Neural da Intel permite que atacantes remotos executem código arbitrário em sistemas afetados

A questão de validação de entrada inadequada no Compressor Neural da Intel permite que atacantes remotos executem código arbitrário em sistemas afetados

A Intel divulgou uma vulnerabilidade de gravidade máxima em algumas versões de seu software Intel Neural Compressor para compressão de modelos de IA. O bug, designado como CVE-2024-22476, fornece a um invasor não autenticado uma maneira de executar código arbitrário em sistemas Intel que executam versões afetadas do software. A vulnerabilidade é a mais grave entre dezenas de falhas que a empresa divulgou em um conjunto de 41 avisos de segurança esta semana.

A Intel identificou o CVE-2024-22476 como resultante de uma validação de entrada inadequada, ou falha em sanitizar corretamente a entrada do usuário. O fabricante de chips atribuiu à vulnerabilidade a pontuação máxima de 10 na escala CVSS porque a falha é explorável remotamente com baixa complexidade e tem um alto impacto na confidencialidade, integridade e disponibilidade de dados. Um invasor não precisa de privilégios especiais, e nenhuma interação do usuário é necessária para que a exploração funcione.

A vulnerabilidade afeta as versões do Intel Neural Compressor anteriores à 2.5.0. A Intel recomendou que organizações que utilizam o software façam o upgrade para a versão 2.5.0 ou posterior. O aviso da Intel indicou que a empresa tomou conhecimento da vulnerabilidade por meio de um pesquisador ou entidade de segurança externa que a empresa não identificou.

O Intel Neural Compressor é uma biblioteca Python de código aberto que ajuda a comprimir e otimizar modelos de deep learning para tarefas como visão computacional, processamento de linguagem natural, sistemas de recomendação e diversos outros casos de uso. As técnicas de compressão incluem poda de redes neurais – ou remoção dos parâmetros menos importantes; redução dos requisitos de memória via quantização de chamadas de processo; e destilação de um modelo maior para um menor com desempenho semelhante. O objetivo da tecnologia de compressão de modelos de IA é ajudar a viabilizar a implantação de aplicativos de IA em dispositivos de hardware diversos, inclusive aqueles com poder computacional limitado ou restrito, como dispositivos móveis.

CVE-2024-22476 é na verdade uma das duas vulnerabilidades no software Neural Compressor da Intel que a empresa divulgou – e para as quais lançou um patch – nesta semana. A outra é CVE-2024-21792, uma falha de tempo de verificação-tempo de uso (TOCTOU) que poderia resultar na divulgação de informações. A Intel avaliou a falha como apresentando apenas um risco moderado pois, entre outras coisas, requer que um invasor já tenha acesso local e autenticado a um sistema vulnerável para explorá-lo.

Além das falhas do Neural Compressor, a Intel também divulgou cinco vulnerabilidades de escalonamento de privilégios de alta gravidade em seu firmware UEFI para produtos de servidor. O aviso da Intel listou todas as vulnerabilidades (CVE-2024-22382; CVE-2024-23487; CVE-2024-24981; CVE-2024-23980; e CVE-2024-22095) como falhas de validação de entrada, com pontuações de gravidade variando de 7.2 a 7.5 na escala CVSS.

As vulnerabilidades do Neural Compressor são exemplos do que os analistas de segurança descreveram recentemente como a superfície de ataque em expansão – mas frequentemente negligenciada – que o software e as ferramentas de IA estão criando em organizações empresariais. Muitas das preocupações de segurança em relação ao software de IA até agora se centraram nos riscos de usar grandes modelos de linguagem e chatbots habilitados por LLM como o ChatGPT. Ao longo do último ano, os pesquisadores divulgaram numerosos relatórios sobre a susceptibilidade dessas ferramentas à manipulação de modelos, jailbreaking e várias outras ameaças.

O que tem sido um pouco menos focado até agora é o risco para as organizações a partir de vulnerabilidades em alguns dos componentes de software principais e infraestrutura usados na construção e suporte de produtos e plataformas de IA. Pesquisadores da Wiz, por exemplo, recentemente encontraram falhas na amplamente utilizada plataforma HuggingFace que permitiam a invasores adulterar modelos no registro ou fazer upload relativamente fácil de modelos armados. Um estudo recente encomendado pelo Departamento de Ciência, Inovação e Tecnologia do Reino Unido identificou inúmeros riscos cibernéticos potenciais para a tecnologia de IA em todos os estados do ciclo de vida, desde a fase de design de software até o desenvolvimento, implantação e manutenção. Os riscos incluem a falta de modelagem adequada de ameaças e a não consideração de autenticação e autorização seguras na fase de design, bem como vulnerabilidades de código, manipulação insegura de dados, validação de entrada inadequada e uma longa lista de outras questões.