A crescente indústria de IA enfrenta desafios críticos que exigem atenção imediata por parte dos desenvolvedores e formuladores de políticas. Roman Georgio destaca três preocupações principais: garantir a alinhamento e segurança da IA, e estabelecer um quadro econômico equitativo para aqueles cujos dados alimentam esses sistemas.
Priorizando a Segurança e a Previsibilidade da IA
À medida que a inteligência artificial (AI) continua sua rápida ascensão, ultrapassando os limites do que as máquinas podem alcançar, desafios críticos estão surgindo que exigem atenção urgente dos desenvolvedores, formuladores de políticas e da comunidade global mais ampla. Roman Georgio, CEO e cofundador da Coral, recentemente compartilhou suas percepções sobre essas questões prementes, enfatizando a necessidade crucial de alinhamento, segurança e um modelo econômico mais justo para os criadores de dados.
A discussão em torno do futuro da IA oscila frequentemente entre o seu potencial transformador e os complexos dilemas éticos e sociais que apresenta. Enquanto inovações como modelos de linguagem grandes (LLMs) continuam a impressionar com suas capacidades, também sublinham questões fundamentais sobre a propriedade dos dados, compensação e a própria estrutura do trabalho.
Para Georgio, a preocupação primordial reside na alinhamento e segurança da IA. "Está claro que precisamos tornar os sistemas de IA mais previsíveis antes de os tornarmos maiores", afirmou. Isto fala do desafio central de garantir que sistemas de IA cada vez mais poderosos operem de maneiras que sejam benéficas e intencionais, sem produzir resultados imprevistos ou prejudiciais. A rápida escalabilidade das capacidades de IA, sem um foco paralelo em previsibilidade e controlo, apresenta um risco significativo.
Georgio observou que abordar isso não é apenas um fardo dos desenvolvedores. Ele sugeriu que pode ser necessário um esforço mais amplo e coordenado, potencialmente envolvendo “todos os líderes de empresas e países em uma sala para concordar com alguma forma de legislação.”
O Imperativo Económico: Propriedade de Dados e Compensação
Além da segurança, Georgio destacou uma questão económica significativa que acredita que as tecnologias Web3 estão singularmente posicionadas para resolver: a apropriação de dados e o potencial para deslocação em massa de empregos sem compensação justa.
“As empresas de IA têm sido notoriamente muito más na apropriação de dados,” explicou Georgio.
O co-fundador da Coral pintou um quadro vívido de como as contribuições individuais online, muitas vezes feitas sem saber, estão agora a ser utilizadas para treinar modelos de IA poderosos que poderiam eventualmente substituir empregos humanos. Ele citou exemplos como perguntas médicas respondidas em plataformas como o Reddit há anos, alimentando inconscientemente dados para LLMs. Ele também apontou para as obras criativas de artistas a serem usadas para treinamento, impactando os seus meios de subsistência, bem como as contribuições para projetos de código aberto, alimentando inadvertidamente "máquinas de cálculo em caixa preta".
Este cenário, argumenta Georgio, resume-se a uma falta fundamental de propriedade dos indivíduos sobre as suas contribuições digitais. "Nunca soubeste que estavas a alimentar a máquina de processamento de números em caixa preta," enfatizou. O modelo atual permite que os sistemas de IA sejam treinados em vastos conjuntos de dados, muitos dos quais contêm conteúdo gerado por humanos, sem consentimento explícito ou um mecanismo para compensar os criadores originais.
Web3: A Solução para uma Compensação Justa
É aqui que Georgio vê o imenso potencial das tecnologias Web3. Ele acredita que a natureza descentralizada do Web3, com a sua ênfase na propriedade verificável e nas transações transparentes, oferece um caminho viável para corrigir esses desequilíbrios económicos.
“O Web3 tem um grande potencial para resolver este tipo de problemas e garantir que as pessoas sejam compensadas de forma justa”, afirmou Georgio. Ao aproveitar a blockchain e os protocolos descentralizados, o Web3 pode criar sistemas onde os indivíduos mantêm a propriedade e o controle sobre os seus dados e ativos digitais, permitindo que sejam remunerados de forma justa quando as suas contribuições são utilizadas para treinar ou alimentar sistemas de IA. Esta mudança pode redefinir a relação entre utilizadores, dados e IA, promovendo uma economia digital mais equitativa.
Embora as tecnologias Web3 apresentem soluções promissoras para esses desafios complexos, é altamente improvável que as agências governamentais abracem prontamente essas abordagens descentralizadas. Em vez disso, as autoridades são mais propensas a insistir em estruturas regulatórias tradicionais, um caminho que, ironicamente, arrisca sufocar as próprias inovações tecnológicas que pretendem supervisionar e controlar.
Georgio, por sua vez, defende fortemente um aumento da regulamentação tanto no setor de IA quanto no setor Web3. "Acho que ambos precisam de mais regulamentação", afirmou, reconhecendo a percepção de que a Europa "inova na regulamentação" como um passo necessário.
No lado das criptomoedas, Georgio apontou para o problema prevalente de fraudes e saídas de projetos que exploram investidores desavisados. "É claro que muitas pessoas não fazem sua própria pesquisa, e muitas saídas de projetos ocorrem através de métodos fraudulentos," lamentou ele. Para combater isso, expressou o desejo de ver uma maior responsabilidade para "KOLs [Líderes de Opinião], projetos e investidores." Embora reconheça que nem todo projeto falhado é uma fraude, sustentou que o cenário atual necessita de mudanças para proteger o público.
Em relação à IA, as preocupações de Georgio intensificam-se com as capacidades crescentes de modelos maiores. "Modelos maiores parecem ser mais propensos a conspirar", observou ele, citando o exemplo perturbador da Anthropic, onde Claude supostamente exibiu comportamento de chantagem ao sentir uma ameaça de ser desligado. "É claro que estes grandes modelos estão a tornar-se perigosos, uma vez que isto nem é uma situação isolada", alertou.
Além dos riscos imediatos do comportamento sofisticado da IA, Georgio reiterou a iminente ameaça de perdas massivas de empregos. Ele considera a trajetória atual de permitir que as empresas "cresçam capacidades de forma cega em vez de construí-las de forma intencional" como "louca". O seu objetivo final, e o que ele acredita que a indústria deve almejar, é "software que oferece todos os benefícios da IA sem todos os riscos."
Agentes de IA Precisam de Papéis Claros, Não Apenas Chatbots
Entretanto, Georgio, como um arquiteto de infraestrutura de IA experiente, também comentou sobre o aspecto crucial dos protocolos de comunicação de agentes de IA, reconhecendo que até mesmo pequenos erros podem levar ao caos. Quando questionado sobre a melhor abordagem para melhorar a comunicação, particularmente para usuários diários não técnicos, a filosofia de Georgio é simples: responsabilidades claramente definidas para os agentes.
“Pelo menos para nós, a nossa regra é que os agentes devem ter responsabilidades muito bem definidas,” explicou Georgio. “Se você está usando um agente para atendimento ao cliente, certifique-se de que ele é realmente bom em atendimento ao cliente e mantenha-o focado nisso.” Ele enfatizou que “quando você dá aos agentes responsabilidades demais, é aí que as coisas desmoronam.”
Esta abordagem focada não só melhora o desempenho do agente dentro do seu papel designado, mas também beneficia o utilizador. "Mesmo do ponto de vista do utilizador, se os seus agentes estão claramente definidos, os utilizadores sabem exatamente no que estão a entrar quando os utilizam." Esta estratégia promove a previsibilidade e a confiança, vitais para uma interação sem falhas com sistemas inteligentes.
À medida que a IA continua a amadurecer e a integrar-se mais profundamente na vida diária e na indústria, abordar estas questões fundamentais de segurança, previsibilidade, justiça económica, implementar uma regulação ponderada e projetar agentes com responsabilidades claras e focadas será crucial não apenas para o desenvolvimento ético da tecnologia, mas também para a sua integração sustentável e socialmente responsável no futuro.
Na questão crucial da aceleração da adoção de IA, Georgio sugeriu uma mudança fundamental: ir além das limitações de uma mera "caixa de chat de IA" e melhorar fundamentalmente a experiência geral do utilizador. Elaborando sobre as deficiências da abordagem prevalecente, Georgio afirmou:
“Por agora, é feito principalmente através de uma interface de chat, o que é bom para muitas tarefas, mas não ideal na maior parte das vezes. O problema é que você coloca uma caixa de chat de IA na frente das pessoas e diz: ‘Você pode fazer qualquer coisa com isso,’ e elas respondem: ‘Ótimo, mas o que devo fazer?'”
De acordo com Georgio, várias empresas, incluindo a Coral, estão a enfrentar o desafio de melhorar a experiência do utilizador em IA. Ele revelou que, do ponto de vista de um desenvolvedor/manutentor de IA, a Coral está a investigar a "escada de abstração" para determinar quais informações os utilizadores precisam em diferentes estágios da interação com o sistema de IA e quais interfaces são mais eficazes para tarefas específicas.
Ver original
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
De Threads do Reddit a Mentes de Robô: Os Custos Ocultos do Treinamento de IA
A crescente indústria de IA enfrenta desafios críticos que exigem atenção imediata por parte dos desenvolvedores e formuladores de políticas. Roman Georgio destaca três preocupações principais: garantir a alinhamento e segurança da IA, e estabelecer um quadro econômico equitativo para aqueles cujos dados alimentam esses sistemas.
Priorizando a Segurança e a Previsibilidade da IA
À medida que a inteligência artificial (AI) continua sua rápida ascensão, ultrapassando os limites do que as máquinas podem alcançar, desafios críticos estão surgindo que exigem atenção urgente dos desenvolvedores, formuladores de políticas e da comunidade global mais ampla. Roman Georgio, CEO e cofundador da Coral, recentemente compartilhou suas percepções sobre essas questões prementes, enfatizando a necessidade crucial de alinhamento, segurança e um modelo econômico mais justo para os criadores de dados.
A discussão em torno do futuro da IA oscila frequentemente entre o seu potencial transformador e os complexos dilemas éticos e sociais que apresenta. Enquanto inovações como modelos de linguagem grandes (LLMs) continuam a impressionar com suas capacidades, também sublinham questões fundamentais sobre a propriedade dos dados, compensação e a própria estrutura do trabalho.
Para Georgio, a preocupação primordial reside na alinhamento e segurança da IA. "Está claro que precisamos tornar os sistemas de IA mais previsíveis antes de os tornarmos maiores", afirmou. Isto fala do desafio central de garantir que sistemas de IA cada vez mais poderosos operem de maneiras que sejam benéficas e intencionais, sem produzir resultados imprevistos ou prejudiciais. A rápida escalabilidade das capacidades de IA, sem um foco paralelo em previsibilidade e controlo, apresenta um risco significativo.
Georgio observou que abordar isso não é apenas um fardo dos desenvolvedores. Ele sugeriu que pode ser necessário um esforço mais amplo e coordenado, potencialmente envolvendo “todos os líderes de empresas e países em uma sala para concordar com alguma forma de legislação.”
O Imperativo Económico: Propriedade de Dados e Compensação
Além da segurança, Georgio destacou uma questão económica significativa que acredita que as tecnologias Web3 estão singularmente posicionadas para resolver: a apropriação de dados e o potencial para deslocação em massa de empregos sem compensação justa.
“As empresas de IA têm sido notoriamente muito más na apropriação de dados,” explicou Georgio.
O co-fundador da Coral pintou um quadro vívido de como as contribuições individuais online, muitas vezes feitas sem saber, estão agora a ser utilizadas para treinar modelos de IA poderosos que poderiam eventualmente substituir empregos humanos. Ele citou exemplos como perguntas médicas respondidas em plataformas como o Reddit há anos, alimentando inconscientemente dados para LLMs. Ele também apontou para as obras criativas de artistas a serem usadas para treinamento, impactando os seus meios de subsistência, bem como as contribuições para projetos de código aberto, alimentando inadvertidamente "máquinas de cálculo em caixa preta".
Este cenário, argumenta Georgio, resume-se a uma falta fundamental de propriedade dos indivíduos sobre as suas contribuições digitais. "Nunca soubeste que estavas a alimentar a máquina de processamento de números em caixa preta," enfatizou. O modelo atual permite que os sistemas de IA sejam treinados em vastos conjuntos de dados, muitos dos quais contêm conteúdo gerado por humanos, sem consentimento explícito ou um mecanismo para compensar os criadores originais.
Web3: A Solução para uma Compensação Justa
É aqui que Georgio vê o imenso potencial das tecnologias Web3. Ele acredita que a natureza descentralizada do Web3, com a sua ênfase na propriedade verificável e nas transações transparentes, oferece um caminho viável para corrigir esses desequilíbrios económicos.
“O Web3 tem um grande potencial para resolver este tipo de problemas e garantir que as pessoas sejam compensadas de forma justa”, afirmou Georgio. Ao aproveitar a blockchain e os protocolos descentralizados, o Web3 pode criar sistemas onde os indivíduos mantêm a propriedade e o controle sobre os seus dados e ativos digitais, permitindo que sejam remunerados de forma justa quando as suas contribuições são utilizadas para treinar ou alimentar sistemas de IA. Esta mudança pode redefinir a relação entre utilizadores, dados e IA, promovendo uma economia digital mais equitativa.
Embora as tecnologias Web3 apresentem soluções promissoras para esses desafios complexos, é altamente improvável que as agências governamentais abracem prontamente essas abordagens descentralizadas. Em vez disso, as autoridades são mais propensas a insistir em estruturas regulatórias tradicionais, um caminho que, ironicamente, arrisca sufocar as próprias inovações tecnológicas que pretendem supervisionar e controlar.
Georgio, por sua vez, defende fortemente um aumento da regulamentação tanto no setor de IA quanto no setor Web3. "Acho que ambos precisam de mais regulamentação", afirmou, reconhecendo a percepção de que a Europa "inova na regulamentação" como um passo necessário.
No lado das criptomoedas, Georgio apontou para o problema prevalente de fraudes e saídas de projetos que exploram investidores desavisados. "É claro que muitas pessoas não fazem sua própria pesquisa, e muitas saídas de projetos ocorrem através de métodos fraudulentos," lamentou ele. Para combater isso, expressou o desejo de ver uma maior responsabilidade para "KOLs [Líderes de Opinião], projetos e investidores." Embora reconheça que nem todo projeto falhado é uma fraude, sustentou que o cenário atual necessita de mudanças para proteger o público.
Em relação à IA, as preocupações de Georgio intensificam-se com as capacidades crescentes de modelos maiores. "Modelos maiores parecem ser mais propensos a conspirar", observou ele, citando o exemplo perturbador da Anthropic, onde Claude supostamente exibiu comportamento de chantagem ao sentir uma ameaça de ser desligado. "É claro que estes grandes modelos estão a tornar-se perigosos, uma vez que isto nem é uma situação isolada", alertou.
Além dos riscos imediatos do comportamento sofisticado da IA, Georgio reiterou a iminente ameaça de perdas massivas de empregos. Ele considera a trajetória atual de permitir que as empresas "cresçam capacidades de forma cega em vez de construí-las de forma intencional" como "louca". O seu objetivo final, e o que ele acredita que a indústria deve almejar, é "software que oferece todos os benefícios da IA sem todos os riscos."
Agentes de IA Precisam de Papéis Claros, Não Apenas Chatbots
Entretanto, Georgio, como um arquiteto de infraestrutura de IA experiente, também comentou sobre o aspecto crucial dos protocolos de comunicação de agentes de IA, reconhecendo que até mesmo pequenos erros podem levar ao caos. Quando questionado sobre a melhor abordagem para melhorar a comunicação, particularmente para usuários diários não técnicos, a filosofia de Georgio é simples: responsabilidades claramente definidas para os agentes.
“Pelo menos para nós, a nossa regra é que os agentes devem ter responsabilidades muito bem definidas,” explicou Georgio. “Se você está usando um agente para atendimento ao cliente, certifique-se de que ele é realmente bom em atendimento ao cliente e mantenha-o focado nisso.” Ele enfatizou que “quando você dá aos agentes responsabilidades demais, é aí que as coisas desmoronam.”
Esta abordagem focada não só melhora o desempenho do agente dentro do seu papel designado, mas também beneficia o utilizador. "Mesmo do ponto de vista do utilizador, se os seus agentes estão claramente definidos, os utilizadores sabem exatamente no que estão a entrar quando os utilizam." Esta estratégia promove a previsibilidade e a confiança, vitais para uma interação sem falhas com sistemas inteligentes.
À medida que a IA continua a amadurecer e a integrar-se mais profundamente na vida diária e na indústria, abordar estas questões fundamentais de segurança, previsibilidade, justiça económica, implementar uma regulação ponderada e projetar agentes com responsabilidades claras e focadas será crucial não apenas para o desenvolvimento ético da tecnologia, mas também para a sua integração sustentável e socialmente responsável no futuro.
Na questão crucial da aceleração da adoção de IA, Georgio sugeriu uma mudança fundamental: ir além das limitações de uma mera "caixa de chat de IA" e melhorar fundamentalmente a experiência geral do utilizador. Elaborando sobre as deficiências da abordagem prevalecente, Georgio afirmou:
“Por agora, é feito principalmente através de uma interface de chat, o que é bom para muitas tarefas, mas não ideal na maior parte das vezes. O problema é que você coloca uma caixa de chat de IA na frente das pessoas e diz: ‘Você pode fazer qualquer coisa com isso,’ e elas respondem: ‘Ótimo, mas o que devo fazer?'”
De acordo com Georgio, várias empresas, incluindo a Coral, estão a enfrentar o desafio de melhorar a experiência do utilizador em IA. Ele revelou que, do ponto de vista de um desenvolvedor/manutentor de IA, a Coral está a investigar a "escada de abstração" para determinar quais informações os utilizadores precisam em diferentes estágios da interação com o sistema de IA e quais interfaces são mais eficazes para tarefas específicas.