O Google, gigante da tecnologia conhecido pela sua constante inovação, deu um passo significativo no campo da inteligência artificial (IA) ao anunciar o lançamento do novos modelos de IA “abertos” Eles colocam uma ênfase especial na segurança. Esta mudança representa um marco importante na evolução da IA e tem o potencial de transformar a forma como interagimos com a tecnologia no futuro.
O que significa um modelo de IA aberto?
Primeiro, é fundamental entender o que significa exatamente esses modelos serem “abertos”. No contexto da IA, Um modelo aberto implica que o código-fonte e os parâmetros do modelo estão disponíveis para outros desenvolvedorespesquisadores e empresas os examinam, modificam e utilizam. Esta abordagem contrasta com os modelos proprietários fechados que têm sido a norma em muitas empresas de tecnologia há anos.
A decisão do Google de adotar uma abordagem mais aberta ao desenvolvimento de IA é louvável por vários motivos. Primeiro, incentiva a colaboração e a inovação em toda a comunidade tecnológica. Ao permitir que outros especialistas examinem e contribuam para o desenvolvimento destes modelos, o Google está a aproveitar a inteligência colectiva da comunidade global de IA. Isto pode levar a melhorias mais rápidas e descobertas inovadoras que talvez não fossem possíveis em um ambiente fechado.
Além disso, a transparência que acompanha os modelos abertos pode ajudar a construir confiança entre usuários e partes interessadas. Numa era em que a privacidade e a segurança dos dados são preocupações primordiais, a capacidade de examinar o desempenho destes modelos de IA pode proporcionar maior tranquilidade tanto aos consumidores como aos reguladores.
Google enfatiza a segurança de seus novos modelos de IA
No entanto, o aspecto mais notável deste anúncio é a ênfase do Google na segurança. A empresa afirmou que estes novos modelos foram desenvolvidos com foco específico em garantir que sejam seguros e éticos na operação. Este compromisso com a segurança é crucial, dado o papel crescente que a IA desempenha nas nossas vidas quotidianas.
A segurança da IA cobre vários aspectos. Inclui proteção contra o uso malicioso de tecnologia, prevenir preconceitos e discriminação nos resultados da IA e garantir que os sistemas de IA sejam robustos e fiáveis. A Google indicou que implementou diversas medidas para resolver estas questões nos seus novos modelos.
Um dos recursos de segurança mais notáveis é a implementação de salvaguardas éticas no centro dos modelos. Isto significa que os modelos são concebidos desde o início para respeitar certos princípios éticos, como a privacidade, a justiça e a não discriminação. Por exemplo, os modelos podem ser programados para impedir a geração de conteúdos ofensivos ou a propagação de desinformação.
Outro aspecto importante da segurança é a robustez do modelo. O Google tem trabalhado para garantir que esses novos modelos sejam resistentes a ataques adversários e adulterações. Isto é crucial num mundo onde os ataques cibernéticos estão a tornar-se mais sofisticados e frequentes.
Além disso, a empresa colocou um grande ênfase na transparência e explicabilidade dos modelos. Isto significa que os modelos podem não só fornecer resultados, mas também explicar como chegaram a essas conclusões. Esta característica é particularmente importante em aplicações críticas, como sistemas de saúde ou judiciais, onde é essencial compreender o raciocínio por trás das decisões de IA.
O lançamento destes modelos também levanta algumas questões interessantes sobre o futuro da IA. Será que outras grandes empresas de tecnologia seguirão o exemplo do Google e adotarão uma abordagem mais aberta? Como isso afetará o cenário competitivo da IA? E como irão os reguladores responder a estes desenvolvimentos?
É importante observar que, embora o foco do Google na segurança e na abertura seja louvável, ainda existem desafios pela frente. A implantação de modelos de IA seguros e éticos é um processo contínuo que requer vigilância e adaptação constantes à medida que surgem novas ameaças e desafios.
Quais são esses novos modelos de IA de código aberto?
Esses novos modelos fazem parte da família Gemma 2 do Google, que estreou em maio passado. Os modelos recém-lançados, Gemma 2 2B, ShieldGemma e Gemma Scope, Eles são projetados para aplicações e casos de uso ligeiramente diferentes, mas compartilham uma abordagem de segurança comum.
Ao contrário dos modelos Gemini do Google, cujo código-fonte não é divulgado e que são usados tanto nos próprios produtos do Google quanto disponíveis para desenvolvedores, a série Gemma é um esforço do Google para promover a boa vontade dentro da comunidade de desenvolvedores, semelhante ao que Meta está tentando fazer com o Llama. .
A gema 2 2B é uma modelo leve para gerar e analisar texto que pode ser executado em uma variedade de hardware, incluindo laptops e dispositivos de ponta. Ele é licenciado para determinados usos comerciais e de pesquisa e pode ser baixado de fontes como a biblioteca de modelos Vertex AI do Google, a plataforma de ciência de dados Kaggle e o kit de ferramentas Google AI Studio.
Por sua vez, ShieldGemma é uma coleção de “classificadores de segurança“que tentam detectar conteúdo tóxico, como discurso de ódio, assédio e conteúdo sexualmente explícito. Construído com base no Gemma 2, o ShieldGemma pode ser usado para filtrar dicas para um modelo generativo, bem como o conteúdo que o modelo gera.
Finalmente, o Gemma Scope permite que os desenvolvedores “ampliem” pontos específicos dentro de um modelo Gemma 2 e tornem seu funcionamento interno mais interpretável. Nas palavras do Google: “Gemma Scope é composto de redes neurais especializados que nos ajudam a desvendar as informações densas e complexas processadas pelo Gemma 2, expandindo-as para uma forma mais fácil de analisar e compreender. Ao estudar essas visões ampliadas, os pesquisadores podem obter insights valiosos sobre como o Gemma 2 identifica padrões, processa informações e, por fim, faz previsões.”
O lançamento desses novos modelos Gemma 2 ocorre logo após o Departamento de Comércio dos EUA endossar modelos abertos de IA em um relatório preliminar.
De acordo com o relatório, os modelos abertos expandem a disponibilidade de IA generativa para pequenas empresas, investigadores, organizações sem fins lucrativos e desenvolvedores individuais, ao mesmo tempo que destacam a necessidade de capacidades para monitorizar tais modelos quanto a riscos potenciais.