A OpenAI reformulou seus procedimentos de segurança para proteger sua propriedade intelectual contra espionagem corporativa, após ter denunciado que a DeepSeek copiou os seus modelos de IA generativa.
As mudanças nos últimos meses incluem controles mais rígidos sobre informações sensíveis e verificação aprimorada de funcionários, de acordo com várias pessoas próximas à empresa de inteligência artificial avaliada em US$ 300 bilhões.
A startup com sede em San Francisco vem reforçando suas medidas de segurança desde o ano passado, mas o ritmo foi acelerado depois que a startup chinesa de IA DeepSeek lançou um modelo rival em janeiro.
A OpenAI acusou a DeepSeek de ter copiado os seus modelos, usando uma técnica conhecida como “destilação”, para lançar um sistema de IA concorrente. Desde então, adicionou medidas de segurança para se proteger contra essas táticas.
A DeepSeek não comentou sobre as alegações e a Open AI também não apresentou provas para sua acusação.
De acordo com uma fonte, o episódio levou a OpenAI a ser muito mais rigorosa na segurança e aumentar o número de funcionários responsáveis por esse monitoramento, incluindo equipes de cibersegurança.
Uma corrida armamentista global de IA levou a maiores preocupações sobre tentativas de roubo da tecnologia, o que poderia ameaçar a segurança econômica e nacional. As autoridades dos EUA alertaram startups de tecnologia no ano passado que adversários estrangeiros, incluindo a China, aumentaram os esforços para adquirir seus dados sensíveis.
Pessoas de dentro da OpenAI disseram que a startup vinha implementando políticas mais rígidas em seus escritórios de San Francisco desde o verão passado (inverno no Brasil) para restringir o acesso dos funcionários a informações cruciais sobre tecnologias como seus algoritmos e novos produtos.
As políticas —conhecidas como “tenting” de informações— reduziram significativamente o número de pessoas que têm acesso aos novos algoritmos em desenvolvimento, segundo fontes internas.
Por exemplo, quando a OpenAI estava desenvolvendo seu novo modelo o1 no ano passado, com o codinome interno “Strawberry”, os funcionários que trabalhavam no projeto foram orientados a verificar se outros colegas também faziam parte da “tenda Strawberry” antes de discuti-lo em espaços comuns do escritório.
A abordagem rigorosa dificultou o trabalho de alguns funcionários, já que os profissionais passaram a ser comunicadas sobre novidades ligadas a sua função ou tarefa, mas não mais sobre outras informações que não eram relacionadas ao seu trabalho específico.
A empresa agora mantém grande parte de sua tecnologia em ambientes isolados, o que significa que os sistemas de computador são mantidos offline e separados de outras redes, de acordo com pessoas familiarizadas com as práticas. Também implementou verificações biométricas em seus escritórios, onde os indivíduos só podiam acessar certas salas escaneando suas impressões digitais, acrescentaram.
Para proteger os modelos em desenvolvimento, a OpenAI adotou uma “política de saída com negação por padrão”, o que significa que nada pode se conectar à internet, a menos que seja explicitamente aprovado.
A OpenAI também aumentou a segurança física nos data centers, disseram as pessoas. Foi uma das várias empresas do Vale do Silício que intensificaram a triagem de funcionários e potenciais recrutas devido à crescente ameaça de espionagem chinesa, informou o Financial Times no ano passado.
Washington e Pequim estão envolvidos em uma crescente competição estratégica, com os EUA impondo controles de exportação para dificultar a obtenção e o desenvolvimento de tecnologias de ponta pela China. No entanto, também foram levantadas preocupações sobre o aumento da xenofobia nas empresas de tecnologia dos EUA, dada a prevalência de trabalhadores qualificados que são descendentes ou nascidos na Ásia.
A OpenAI contratou Dane Stuckey em outubro do ano passado como seu novo diretor de segurança da informação, vindo do mesmo cargo na Palantir, o grupo de inteligência de dados conhecido por seu extenso trabalho militar e governamental.
Stuckey trabalha ao lado de Matt Knight, vice-presidente de produtos de segurança da OpenAI. Knight tem desenvolvido maneiras de usar os modelos de linguagem grandes da OpenAI para melhorar suas defesas contra ataques cibernéticos, de acordo com uma pessoa com conhecimento do assunto.
O general aposentado do exército dos EUA Paul Nakasone foi nomeado para o conselho da OpenAI no ano passado para ajudar a supervisionar suas defesas contra ameaças de segurança cibernética.
A OpenAI disse que está investindo pesado em seus programas de privacidade e segurança, pois quer liderar o setor. A empresa afirmou que as mudanças não foram feitas em resposta a nenhum incidente específico.