Sina Financial News Recentemente, o novo modelo da OpenAI, "Sora", chamou a atenção, e o New York Times informou que a avaliação da OpenAI pode agora chegar a cerca de US$ 80 bilhões. Por um lado, o novo modelo Sora chocou a indústria de produção de conteúdo e, por outro lado, o mercado também está prestando atenção aos seus dois perigos ocultos. Em primeiro lugar, um executivo de uma empresa de publicidade disse que ainda existem algumas dúvidas sobre direitos autorais de conteúdo. No momento, a OpenAI não divulga o número de vídeos envolvidos no treinamento do modelo e suas fontes específicas, mas apenas disse que todos os materiais de treinamento são de fontes públicas ou conteúdo autorizado. Outra preocupação é o Depth Fake. Este ano é um grande ano para eleições em todo o mundo, que afetarão mais de 4 bilhões de pessoas, incluindo países de Long Long. A tecnologia AI Depth Fake pode gerar um grande número de áudios, vídeos e imagens falsos para influenciar as eleições.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O novo modelo Sora explodiu, e a indústria tem dois perigos ocultos, além do choque
Sina Financial News Recentemente, o novo modelo da OpenAI, "Sora", chamou a atenção, e o New York Times informou que a avaliação da OpenAI pode agora chegar a cerca de US$ 80 bilhões. Por um lado, o novo modelo Sora chocou a indústria de produção de conteúdo e, por outro lado, o mercado também está prestando atenção aos seus dois perigos ocultos. Em primeiro lugar, um executivo de uma empresa de publicidade disse que ainda existem algumas dúvidas sobre direitos autorais de conteúdo. No momento, a OpenAI não divulga o número de vídeos envolvidos no treinamento do modelo e suas fontes específicas, mas apenas disse que todos os materiais de treinamento são de fontes públicas ou conteúdo autorizado. Outra preocupação é o Depth Fake. Este ano é um grande ano para eleições em todo o mundo, que afetarão mais de 4 bilhões de pessoas, incluindo países de Long Long. A tecnologia AI Depth Fake pode gerar um grande número de áudios, vídeos e imagens falsos para influenciar as eleições.