A fusão de IA e Web3 gera novos desafios de segurança, DeFAI se torna o foco
Recentemente, um evento de blockchain focado na tendência de fusão entre AI e Web3 ocorreu em Istambul, tornando-se um importante espaço para discussões sobre segurança em Web3 este ano. Durante o evento, vários especialistas da indústria tiveram discussões profundas sobre o estado atual da aplicação da tecnologia AI em finanças descentralizadas (DeFi) e os desafios de segurança.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo paradigma financeiro - Finanças Descentralizadas com IA (DeFAI) está gradualmente tomando forma. No entanto, essa transformação também trouxe novas superfícies de ataque e riscos de segurança. Especialistas presentes apontaram que, embora o DeFAI tenha um futuro promissor, também nos exige reavaliar os mecanismos de confiança nos sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, tempo e até mesmo interações históricas, essa imprevisibilidade não apenas intensifica os riscos, mas também cria oportunidades para os atacantes.
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base na lógica da IA, normalmente autorizados a operar por usuários, protocolos ou DAOs. O representante mais típico é o robô de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
Os especialistas presentes também mencionaram um cenário típico de ataque: quando um agente de negociação AI operado por um usuário DeFi está monitorizando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um determinado protocolo está a ser atacado", podendo induzir o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só pode resultar na perda de ativos do usuário, mas também provocar volatilidade no mercado, que pode ser então explorada pelo atacante através de negociações antecipadas.
Em relação aos riscos mencionados, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser de responsabilidade exclusiva de uma das partes, mas sim uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros. Primeiro, os usuários precisam estar cientes do escopo de permissões que o agente possui, concedendo permissões de forma cautelosa, e devem também revisar as operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: fortalecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de retrocesso. Por último, as empresas de segurança de terceiros devem fornecer auditoria independente sobre o comportamento do modelo do agente de IA, a infraestrutura e a forma como a integração em blockchain é feita, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa-preta', acidentes de segurança no mundo real são apenas uma questão de tempo." Para os desenvolvedores que estão a explorar a direção do DeFAI, ele deu a seguinte recomendação: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que se trata de código, há a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
Com o contínuo desenvolvimento da tecnologia blockchain e a profunda integração da IA, as questões de segurança no campo do DeFAI se tornarão o foco de atenção da indústria por um período futuro. Encontrar um equilíbrio entre inovação e segurança será um desafio importante que toda a indústria enfrentará.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
3
Repostar
Compartilhar
Comentário
0/400
RetiredMiner
· 08-11 07:06
难道都来 fazer as pessoas de parvas了 安全性谈好久了 白费嘴皮子
Ver originalResponder0
AirdropHarvester
· 08-11 06:53
Os manipuladores de mercado estão ativos, e os Bots vão começar a fazer as pessoas de parvas.
A ascensão do DeFAI gera novos desafios de segurança para o Web3. Especialistas apelam para a atenção ao risco dos agentes de IA.
A fusão de IA e Web3 gera novos desafios de segurança, DeFAI se torna o foco
Recentemente, um evento de blockchain focado na tendência de fusão entre AI e Web3 ocorreu em Istambul, tornando-se um importante espaço para discussões sobre segurança em Web3 este ano. Durante o evento, vários especialistas da indústria tiveram discussões profundas sobre o estado atual da aplicação da tecnologia AI em finanças descentralizadas (DeFi) e os desafios de segurança.
Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de IA, um novo paradigma financeiro - Finanças Descentralizadas com IA (DeFAI) está gradualmente tomando forma. No entanto, essa transformação também trouxe novas superfícies de ataque e riscos de segurança. Especialistas presentes apontaram que, embora o DeFAI tenha um futuro promissor, também nos exige reavaliar os mecanismos de confiança nos sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, tempo e até mesmo interações históricas, essa imprevisibilidade não apenas intensifica os riscos, mas também cria oportunidades para os atacantes.
Os agentes de IA são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base na lógica da IA, normalmente autorizados a operar por usuários, protocolos ou DAOs. O representante mais típico é o robô de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não apenas podem resultar em perdas financeiras, mas também podem afetar a estabilidade de todo o protocolo.
Os especialistas presentes também mencionaram um cenário típico de ataque: quando um agente de negociação AI operado por um usuário DeFi está monitorizando mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um determinado protocolo está a ser atacado", podendo induzir o agente a iniciar imediatamente uma liquidação de emergência. Esta operação não só pode resultar na perda de ativos do usuário, mas também provocar volatilidade no mercado, que pode ser então explorada pelo atacante através de negociações antecipadas.
Em relação aos riscos mencionados, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser de responsabilidade exclusiva de uma das partes, mas sim uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros. Primeiro, os usuários precisam estar cientes do escopo de permissões que o agente possui, concedendo permissões de forma cautelosa, e devem também revisar as operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: fortalecimento de prompts, isolamento em sandbox, limitação de taxa e lógica de retrocesso. Por último, as empresas de segurança de terceiros devem fornecer auditoria independente sobre o comportamento do modelo do agente de IA, a infraestrutura e a forma como a integração em blockchain é feita, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa-preta', acidentes de segurança no mundo real são apenas uma questão de tempo." Para os desenvolvedores que estão a explorar a direção do DeFAI, ele deu a seguinte recomendação: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que se trata de código, há a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
Com o contínuo desenvolvimento da tecnologia blockchain e a profunda integração da IA, as questões de segurança no campo do DeFAI se tornarão o foco de atenção da indústria por um período futuro. Encontrar um equilíbrio entre inovação e segurança será um desafio importante que toda a indústria enfrentará.