A Meta divulgou um novo documento chamado Frontier AI Framework, revelando que, apesar das declarações anteriores do CEO Mark Zuckerberg, a empresa não lançará publicamente sistemas de Inteligência Artificial considerados de ‘alto risco’ ou ‘risco crítico’. Esses sistemas têm potencial para facilitar ataques cibernéticos e biológicos. A Meta compromete-se a restringir o acesso a tais tecnologias até que sejam implementadas medidas de segurança adequadas.
A postura da Meta reflete uma preocupação crescente com a segurança e as implicações éticas da IA. Ao restringir o acesso a tecnologias potencialmente perigosas, a empresa busca equilibrar inovação e responsabilidade.