L'intégration de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le point focal
Récemment, un événement blockchain axé sur la tendance de fusion entre l'IA et le Web3 s'est tenu à Istanbul, devenant un lieu important pour les discussions sur la sécurité du Web3 cette année. Pendant l'événement, plusieurs experts du secteur ont mené des discussions approfondies sur l'état des applications de la technologie IA dans la finance décentralisée ( DeFi ) et sur les défis de sécurité.
Avec le développement rapide des grands modèles de langage et des agents IA, un tout nouveau paradigme financier - la finance décentralisée et intelligente (DeFAI) - est en train de se former. Cependant, cette transformation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité. Les experts présents ont souligné que bien que DeFAI offre de grandes perspectives, cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents IA est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité accroît non seulement les risques, mais crée également des opportunités pour les attaquants.
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents IA fonctionnent sur une architecture Web2, dépendant de serveurs centralisés et d'API, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts présents ont également évoqué un scénario d'attaque typique : lorsque l'agent de trading AI utilisé par un utilisateur de DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant peut publier une fausse alerte, par exemple "un certain protocole est attaqué", ce qui peut inciter l'agent à déclencher immédiatement un déchargement d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais également provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du trading anticipé.
Concernant les risques mentionnés ci-dessus, les experts présents estiment généralement que la sécurité des agents AI ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité conjointe des utilisateurs, des développeurs et des agences de sécurité tierces. Tout d'abord, les utilisateurs doivent être clairs sur l'étendue des permissions que l'agent possède, accorder les permissions avec prudence et prêter attention à l'examen des opérations à haut risque de l'agent AI. Ensuite, les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des prompts, l'isolement en sandbox, la limitation de la vitesse et des logiques de retour en arrière, etc. Enfin, les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles des agents AI, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a donné le conseil suivant : "Tout comme pour les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a un risque d'attaque, donc des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
Avec le développement continu de la technologie blockchain et l'intégration approfondie de l'IA, les questions de sécurité dans le domaine de la DeFAI deviendront un point focal d'intérêt pour l'industrie dans un avenir proche. Trouver un équilibre entre innovation et sécurité sera un défi important auquel l'ensemble du secteur sera confronté.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
5
Reposter
Partager
Commentaire
0/400
ParallelChainMaxi
· 08-13 15:42
Arrête de jouer, cela va s'effondrer tôt ou tard.
Voir l'originalRépondre0
CryptoAdventurer
· 08-13 00:59
Les pigeons ont un nouveau cours, ils ne comprennent pas comment jouer avec la gestion des risques.
Voir l'originalRépondre0
RetiredMiner
· 08-11 07:06
N'est-ce pas que tout le monde se fait prendre pour des cons ? La sécurité, on en a parlé pendant longtemps, c'était en vain.
Voir l'originalRépondre0
AirdropHarvester
· 08-11 06:53
Le manipulateur de marché est de retour, les Bots vont encore commencer à prendre les pigeons pour des idiots.
Voir l'originalRépondre0
FlatTax
· 08-11 06:44
Un vieux pigeon dans l'univers de la cryptomonnaie, gérant une petite entreprise.
L'émergence de DeFAI soulève de nouveaux défis de sécurité pour le Web3. Les experts appellent à prêter attention aux risques des agents IA.
L'intégration de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le point focal
Récemment, un événement blockchain axé sur la tendance de fusion entre l'IA et le Web3 s'est tenu à Istanbul, devenant un lieu important pour les discussions sur la sécurité du Web3 cette année. Pendant l'événement, plusieurs experts du secteur ont mené des discussions approfondies sur l'état des applications de la technologie IA dans la finance décentralisée ( DeFi ) et sur les défis de sécurité.
Avec le développement rapide des grands modèles de langage et des agents IA, un tout nouveau paradigme financier - la finance décentralisée et intelligente (DeFAI) - est en train de se former. Cependant, cette transformation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité. Les experts présents ont souligné que bien que DeFAI offre de grandes perspectives, cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents IA est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité accroît non seulement les risques, mais crée également des opportunités pour les attaquants.
Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents IA fonctionnent sur une architecture Web2, dépendant de serveurs centralisés et d'API, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts présents ont également évoqué un scénario d'attaque typique : lorsque l'agent de trading AI utilisé par un utilisateur de DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant peut publier une fausse alerte, par exemple "un certain protocole est attaqué", ce qui peut inciter l'agent à déclencher immédiatement un déchargement d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais également provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du trading anticipé.
Concernant les risques mentionnés ci-dessus, les experts présents estiment généralement que la sécurité des agents AI ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité conjointe des utilisateurs, des développeurs et des agences de sécurité tierces. Tout d'abord, les utilisateurs doivent être clairs sur l'étendue des permissions que l'agent possède, accorder les permissions avec prudence et prêter attention à l'examen des opérations à haut risque de l'agent AI. Ensuite, les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des prompts, l'isolement en sandbox, la limitation de la vitesse et des logiques de retour en arrière, etc. Enfin, les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles des agents AI, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a donné le conseil suivant : "Tout comme pour les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a un risque d'attaque, donc des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."
Avec le développement continu de la technologie blockchain et l'intégration approfondie de l'IA, les questions de sécurité dans le domaine de la DeFAI deviendront un point focal d'intérêt pour l'industrie dans un avenir proche. Trouver un équilibre entre innovation et sécurité sera un défi important auquel l'ensemble du secteur sera confronté.