Pourquoi la modularité multimodale est-elle une illusion de l'IA Web3 ?

Auteur original : @BlazingKevin_ , le chercheur chez Movemaker

L’évolution des modèles multimodaux n’a pas apporté le chaos, mais a approfondi les barrières techniques de l’IA Web2 - de l’alignement sémantique à la compréhension visuelle, de l’intégration de haute dimension à la fusion de fonctionnalités, des modèles complexes intègrent diverses expressions modales à une vitesse sans précédent pour construire un haut plateau d’IA de plus en plus fermé. Le marché boursier américain a également voté avec ses pieds, qu’il s’agisse d’actions monétaires ou d’actions d’IA, elles sont sorties d’une vague de marché haussier. Et cette canicule n’a rien à voir avec la Crypto. Les tentatives d’IA Web3 que nous avons vues, en particulier l’évolution de la direction de l’agent ces derniers mois, sont presque complètement fausses : un vœu pieux d’utiliser une structure décentralisée pour assembler un système modulaire multimodal de style Web2 est en fait un double désalignement de la technologie et de la pensée. Dans les modules fortement couplés d’aujourd’hui, la distribution très instable des fonctionnalités et la demande de puissance de calcul de plus en plus concentrée, la modularisation multimodale ne peut tout simplement pas tenir dans le Web3. Précisons-le : l’avenir de l’IA Web3 n’est pas une question d’imitation, mais de détours stratégiques. De l’alignement sémantique d’espaces de grande dimension au goulot d’étranglement de l’information dans le mécanisme d’attention, en passant par l’alignement des caractéristiques sous une puissance de calcul hétérogène, je les développerai un par un pour expliquer pourquoi l’IA Web3 devrait utiliser la campagne pour entourer la ville en tant que programme tactique.

Web3 AI basé sur un modèle multimodal aplati, l'alignement sémantique non réalisé entraîne une performance médiocre

Dans le système multimodal de l’IA Web2 moderne, « l’alignement sémantique » fait référence à la cartographie d’informations provenant de différentes modalités (telles que des images, du texte, de l’audio, de la vidéo, etc.) dans un espace sémantique identique ou interconvertible, afin que le modèle puisse comprendre et comparer la signification intrinsèque de ces signaux initialement disparates. Par exemple, pour l’image d’un chat et l’expression « un chat mignon », le modèle doit les projeter près l’un de l’autre dans un espace intégré de haute dimension, afin qu’il puisse « regarder l’image et parler » et « écouter le son pour associer l’image » lors de la récupération, de la génération ou du raisonnement.

Il n'est significatif de diviser un flux de travail en différents modules que si l'on réalise un espace d'insertion de haute dimension. Cependant, dans le protocole Web3 Agent, il est impossible de réaliser une insertion de haute dimension, car la modularité est une illusion de l'IA Web3.

Comment comprendre l'espace d'insertion de haute dimension ? Au niveau le plus intuitif, imaginez "l'espace d'insertion de haute dimension" comme un système de coordonnées - tout comme les coordonnées x-y sur un plan, vous pouvez utiliser une paire de chiffres pour localiser un point. Sauf que dans notre plan bidimensionnel commun, un point est entièrement déterminé par deux chiffres (x, y) ; tandis que dans l'espace "haute dimension", chaque point doit être décrit par davantage de chiffres, peut-être 128, 512, voire des milliers de chiffres.

Comprendre par étapes, du plus simple au plus complexe :

  1. Exemple en deux dimensions :

Pensez aux coordonnées de plusieurs villes que vous avez marquées sur la carte, comme Pékin (116.4, 39.9), Shanghai (121.5, 31.2), Guangzhou (113.3, 23.1). Chaque ville correspond ici à un "vecteur d'incorporation à deux dimensions" (embedding vector) : les coordonnées à deux dimensions codent les informations géographiques en chiffres.

Si vous souhaitez mesurer la "similarité" entre les villes - les villes qui sont proches sur la carte se trouvent souvent dans la même zone économique ou climatique - vous pouvez directement comparer la distance euclidienne de leurs coordonnées. 2. Élargir à plusieurs dimensions :

Supposons maintenant que vous souhaitiez non seulement décrire la position dans l'"espace géographique", mais également ajouter certaines "caractéristiques climatiques" (température moyenne, précipitations), "caractéristiques démographiques" (densité de population, PIB), etc. Vous pouvez alors attribuer à chaque ville un vecteur contenant ces 5, 10, voire plus de dimensions.

Par exemple, le vecteur à 5 dimensions de Guangzhou pourrait être [ 113.3, 23.1, 24.5, 1700, 14.5 ], représentant respectivement la longitude, la latitude, la température moyenne, les précipitations annuelles (en millimètres) et l'indice économique. Cet "espace multidimensionnel" vous permet de comparer les villes selon plusieurs dimensions telles que la géographie, le climat et l'économie : si les vecteurs de deux villes sont très proches, cela signifie qu'elles sont très similaires sur ces attributs. 3. Passer à la sémantique - Pourquoi "intégrer" : Dans le traitement du langage naturel (NLP) ou la vision par ordinateur, nous souhaitons également mapper des "mots", des "phrases" ou des "images" dans un tel vecteur multidimensionnel, de sorte que les mots ou images ayant "des significations similaires" soient plus proches les uns des autres dans l'espace. Ce processus de mappage s'appelle "embedding". Par exemple : nous entraînons un modèle qui mappe "cat" (chat) à un vecteur 300 dimensions v₁, "dog" (chien) à un autre vecteur v₂, et des mots "non pertinents" comme "economy" (économie) à v₃. Dans cet espace de 300 dimensions, la distance entre v₁ et v₂ sera très petite (car ce sont tous les deux des animaux, apparaissant souvent dans des contextes linguistiques similaires), tandis que la distance entre v₁ et v₃ sera grande. À mesure que le modèle est entraîné sur une quantité massive de textes ou de paires image-texte, chaque dimension qu'il apprend ne correspond pas directement à des attributs interprétables tels que "longitude" ou "latitude", mais plutôt à une sorte de "caractéristiques sémantiques implicites". Certaines dimensions peuvent capturer la distinction grossière "animal vs. non-animal", d'autres dimensions peuvent faire la différence entre "domestique vs. sauvage", et certaines dimensions peuvent correspondre à la sensation de "mignon vs. puissant"... En résumé, des centaines, voire des milliers de dimensions travaillent ensemble pour encoder tous les aspects sémantiques complexes et imbriqués.

Quelle est la différence entre les dimensions hautes et basses ? Seul un nombre suffisant de dimensions peut s’adapter à une variété de caractéristiques sémantiques entrelacées, et seules des dimensions élevées peuvent leur donner une position plus claire dans leurs latitudes sémantiques respectives. Lorsque la sémantique ne peut pas être distinguée, c’est-à-dire que la sémantique ne peut pas être alignée, différents signaux dans l’espace de faible dimension se « serrent » les uns les autres, ce qui entraîne une confusion fréquente dans la récupération ou la classification du modèle, et la précision est considérablement réduite. Deuxièmement, il est difficile de saisir les différences subtiles dans l’étape de génération de la stratégie, et il est facile de manquer des signaux de trading clés ou de mal évaluer le seuil de risque, ce qui tire directement vers le bas la performance des rendements. De plus, la collaboration inter-modules devient impossible, chaque agent travaille indépendamment, le phénomène des îlots d’information est grave, le délai de réponse global augmente, et la robustesse devient médiocre. Enfin, face à des scénarios de marché complexes, la structure de faible dimension n’a presque pas la capacité de transporter des données multisources, et la stabilité et l’évolutivité du système sont difficiles à garantir, et le fonctionnement à long terme est voué à tomber dans des goulets d’étranglement de performance et des difficultés de maintenance, entraînant un écart important entre les performances du produit après l’atterrissage et l’attente initiale.

Alors, les protocoles Web3, IA ou Agent peuvent-ils atteindre un espace d’intégration de grande dimension ? Tout d’abord, pour répondre à la question de savoir comment obtenir un espace de grande dimension, le sens traditionnel de « haute dimension » exige que chaque sous-système, tel que l’intelligence de marché, la génération de stratégies, l’exécution et la mise en œuvre, et le contrôle des risques, s’aligne les uns sur les autres et se complète dans la représentation des données et le processus de prise de décision. Cependant, la plupart des agents Web3 n’encapsulent que des API prêtes à l’emploi (interfaces CoinGecko, DEX, etc.) dans des « agents » indépendants, dépourvus d’un espace d’intégration central unifié et d’un mécanisme d’attention inter-modules, ce qui entraîne des informations qui ne peuvent pas interagir entre les modules sous plusieurs angles et niveaux, et ne peuvent suivre qu’un pipeline linéaire, montrant une seule fonction, et incapables de former une optimisation globale en boucle fermée.

De nombreux Agents appellent directement des interfaces externes, sans même effectuer suffisamment d'ajustements ou d'ingénierie des caractéristiques sur les données retournées par l'interface. Par exemple, l'Agent d'analyse de marché se contente de prendre le prix et le volume des transactions, l'Agent d'exécution des transactions passe des ordres uniquement en fonction des paramètres de l'interface, et l'Agent de contrôle des risques se contente de donner des alertes selon quelques seuils. Ils exercent chacun leur fonction, mais manquent d'une fusion multimodale et d'une compréhension sémantique approfondie des mêmes événements de risque ou signaux de marché, ce qui fait que le système ne peut pas générer rapidement des stratégies complètes et multidimensionnelles face à des conditions extrêmes du marché ou des opportunités inter-actifs.

Par conséquent, exiger de l’IA Web3 qu’il atteigne un espace de grande dimension équivaut à exiger du protocole Agent qu’il développe toutes les interfaces API impliquées, ce qui est contraire à son intention initiale de modularisation, et le système multimodal modulaire décrit par les petites et moyennes entreprises dans l’IA Web3 ne peut pas résister à un examen minutieux. L’architecture à haute dimension nécessite une formation unifiée de bout en bout ou une optimisation collaborative : de la capture du signal au calcul de la stratégie, en passant par l’exécution et le contrôle des risques, tous les maillons partagent le même ensemble de fonctions de représentation et de perte. L’idée du « module en tant que plug-in » de Web3 Agent a exacerbé la fragmentation : chaque mise à niveau, déploiement et réglage des paramètres de l’agent est effectué dans son propre silo, ce qui est difficile à itérer de manière synchrone, et il n’existe pas de mécanisme de surveillance et de retour d’information centralisé efficace, ce qui entraîne une flambée des coûts de maintenance et des performances globales limitées.

Pour réaliser un agent intelligent de bout en bout avec des barrières sectorielles, il est nécessaire d'avoir une modélisation conjointe de bout en bout, une intégration unifiée entre les modules, ainsi qu'une ingénierie systématique pour l'entraînement et le déploiement collaboratifs afin de percer, mais le marché actuel ne présente pas de tel point de douleur, il n'y a donc naturellement pas de demande sur le marché.

Dans un espace de faible dimension, le mécanisme d'attention ne peut pas être conçu de manière précise

Les modèles multimodaux de haut niveau doivent concevoir des mécanismes d’attention sophistiqués. Le « mécanisme d’attention » est essentiellement un moyen d’allouer dynamiquement des ressources de calcul, permettant au modèle de se « concentrer » sélectivement sur les parties les plus pertinentes lors du traitement d’une entrée modale. Les plus courants sont les mécanismes d’auto-attention et d’attention croisée dans le Transformer : l’auto-attention permet au modèle de mesurer les dépendances entre les éléments d’une séquence, telles que l’importance de chaque mot du texte pour d’autres mots ; La transattention permet aux informations d’une modalité (par exemple, du texte) de décider quelles caractéristiques de l’image « voir » lors du décodage ou de la génération d’une autre modalité (par exemple, la séquence de caractéristiques d’une image). Grâce à l’attention multi-têtes, le modèle peut apprendre plusieurs alignements simultanément dans différents sous-espaces pour capturer des associations plus complexes et plus fines.

La prémisse du mécanisme d’attention est que la multimodalité a des dimensions élevées, et dans l’espace de haute dimension, le mécanisme d’attention sophistiqué peut trouver la partie centrale de l’espace massif de haute dimension dans les plus brefs délais. Avant d’expliquer pourquoi le mécanisme d’attention doit être placé dans un espace de grande dimension afin de jouer un rôle, nous comprenons d’abord le processus d’IA Web2 représenté par le décodeur Transformer lors de la conception du mécanisme d’attention. L’idée de base est que lors du traitement de séquences (texte, patchs d’images, images audio), le modèle attribue dynamiquement des « poids d’attention » à chaque élément, ce qui lui permet de se concentrer sur les informations les plus pertinentes, plutôt que de les traiter aveuglément de manière égale.

Pour faire simple, si vous comparez le mécanisme d’attention à une voiture, la conception de Query-Key-Value est la conception du moteur. Q-K-V est le mécanisme qui nous aide à déterminer les informations clés, Query fait référence à la requête ( « qu’est-ce que je recherche » ), Key fait référence à l’index ( « quelle étiquette ai-je » ), Value fait référence au contenu ( » Qu’est-ce qu’il y a ici" ). Pour un modèle multimodal, ce que vous entrez dans le modèle peut être une phrase, une image ou un audio. Afin de récupérer le contenu dont nous avons besoin dans l’espace dimensionnel, ces entrées sont découpées en unités les plus petites, telles qu’un caractère, un petit bloc d’une certaine taille de pixel ou un morceau de trame audio, et le modèle multimodal génère Query, Key et Value pour ces unités minimales pour le calcul de l’attention. Lorsque le modèle traite un certain emplacement, il utilisera la requête de cette position pour comparer les clés de toutes les positions, déterminer quelles balises correspondent le mieux aux exigences actuelles, puis extraire la valeur de la position correspondante en fonction du degré de correspondance et pondérer la combinaison en fonction de l’importance, et enfin obtenir une nouvelle représentation qui contient non seulement ses propres informations, mais intègre également le contenu pertinent du monde entier. De cette façon, chaque sortie peut être dynamiquement « interrogée-récupérée-intégrée » en fonction du contexte pour obtenir une focalisation efficace et précise de l’information.

Sur la base de ce moteur, diverses parties sont ajoutées, et « l’interaction globale » et la « complexité contrôlable » sont savamment combinées : le produit scalaire à l’échelle assure la stabilité numérique, l’expression parallèle multi-têtes riche en expressions, le codage de position préserve l’ordre des séquences, les variantes éparses prennent en compte l’efficacité, les résidus et la normalisation aident à stabiliser l’entraînement, et l’attention croisée ouvre la multimodalité. Ces conceptions modulaires, couche par couche, permettent à l’IA Web2 d’avoir de solides capacités d’apprentissage et de fonctionner efficacement dans une gamme abordable de puissance de calcul lors de la gestion d’une variété de tâches séquentielles et multimodales.

Pourquoi l’IA Web3 modulaire ne peut-elle pas réaliser une planification unifiée de l’attention ? Tout d’abord, le mécanisme d’attention repose sur un espace unifié Requête-Clé-Valeur, et toutes les caractéristiques d’entrée doivent être mappées au même espace vectoriel de grande dimension afin de calculer les poids dynamiques du produit scalaire. Cependant, les API indépendantes renvoient différents formats et différentes distributions de données (prix, état de la commande, alarmes de seuil) sans couche d’intégration unifiée et ne peuvent pas former un ensemble de Q/K/V interactifs. Deuxièmement, l’attention multi-têtes permet de prêter attention à différentes sources d’information en parallèle au même niveau et au même moment, puis les résultats sont agrégés. Cependant, les API indépendantes appellent souvent « A en premier, puis B, puis C », et la sortie de chaque étape n’est que l’entrée du module suivant, qui n’a pas la capacité de pondération dynamique parallèle et multicanale, et ne peut naturellement pas simuler l’ordonnancement fin de la notation et de la synthèse de toutes les positions ou modalités en même temps dans le mécanisme d’attention. Enfin, un véritable mécanisme d’attention attribue dynamiquement des poids à chaque élément en fonction du contexte global ; En mode API, les modules ne peuvent voir le contexte « indépendant » que lorsqu’ils sont appelés, et il n’y a pas de contexte central partagé entre eux en temps réel, il est donc impossible d’obtenir une corrélation globale et une concentration entre les modules.

Ainsi, se contenter d'encapsuler diverses fonctionnalités en API discrètes - sans représentation vectorielle commune, sans pondération et agrégation parallèles - ne permettra pas de construire une capacité de "planification d'attention unifiée" comme celle du Transformer, tout comme une voiture avec un moteur peu performant aura du mal à améliorer ses performances, peu importe les modifications apportées.

La modularité discrète des assemblages entraîne une fusion des caractéristiques qui reste à un assemblage statique superficiel.

La "fusion de caractéristiques" consiste à combiner davantage les vecteurs de caractéristiques obtenus après traitement de différentes modalités, sur la base de l'alignement et de l'attention, afin qu'ils puissent être utilisés directement pour des tâches en aval (classification, recherche, génération, etc.). Les moyens de fusion peuvent être aussi simples que la concaténation ou la somme pondérée, ou aussi complexes que la poolisation bilinéaire, la décomposition tensorielle ou même des techniques de routage dynamique. Des méthodes de niveau supérieur consistent à alterner l'alignement, l'attention et la fusion dans des réseaux multicouches, ou à établir des chemins de transmission de messages plus flexibles entre des caractéristiques intermodales à travers des réseaux de neurones graphiques (GNN) pour réaliser une interaction profonde des informations.

Il va sans dire que l'IA Web3 est bien sûr encore au stade le plus simple de l'assemblage, car la fusion des caractéristiques dynamiques repose sur un espace de haute dimension et un mécanisme d'attention précis. Lorsque ces conditions préalables ne sont pas réunies, il est naturellement impossible d'obtenir des performances exceptionnelles à la dernière étape de la fusion des caractéristiques.

L’IA Web2 a tendance à un entraînement conjoint de bout en bout : toutes les caractéristiques modales telles que les images, le texte et l’audio sont traitées simultanément dans le même espace de grande dimension, et le modèle apprend automatiquement les poids de fusion optimaux et les modes d’interaction en avant et en arrière propagation grâce à la co-optimisation avec la couche de tâches en aval via la couche d’attention et la couche de fusion. L’IA Web3, quant à elle, utilise un épissage de modules plus discret, encapsulant diverses API telles que la reconnaissance d’images, la capture de marché et l’évaluation des risques dans des agents indépendants, puis rassemblant simplement les étiquettes, les valeurs ou les alarmes de seuil qu’elles produisent, et prenant des décisions complètes par logique principale ou manuelle, ce qui manque d’un objectif de formation unifié et d’aucun flux de gradient entre les modules.

Dans l’IA Web2, le système s’appuie sur le mécanisme d’attention pour calculer les scores d’importance des différentes fonctionnalités en temps réel en fonction du contexte, et ajuster dynamiquement la stratégie de fusion. L’attention multi-têtes peut également capturer plusieurs modèles d’interaction de caractéristiques différents en parallèle au même niveau, en tenant compte des détails locaux et de la sémantique globale. L’IA Web3, quant à elle, fixe souvent à l’avance le poids de « × d’image 0,5 + × de texte 0,3 + prix × 0,2 », ou utilise des règles simples si/sinon pour déterminer s’il faut fusionner, ou ne fusionne pas du tout, et ne présente que la sortie de chaque module ensemble, ce qui manque de flexibilité.

L’IA Web2 mappe toutes les caractéristiques modales dans un espace de grande dimension de plusieurs milliers de dimensions, et le processus de fusion n’est pas seulement l’assemblage vectoriel, mais aussi une variété d’interactions d’ordre supérieur telles que l’addition et le regroupement bilinéaire - chaque dimension a le potentiel de correspondre à une sémantique latente, ce qui permet au modèle de capturer des associations intermodales profondes et complexes. En revanche, la sortie de l’agent de l’IA Web3 ne contient souvent que quelques champs ou mesures clés, et les dimensions des caractéristiques sont extrêmement faibles, ce qui rend presque impossible la transmission d’informations subtiles telles que « pourquoi le contenu de l’image correspond au sens du texte » ou « la corrélation subtile entre les fluctuations de prix et les mouvements de sentiment ».

Dans l'IA Web2, la perte des tâches en aval est continuellement renvoyée aux différentes parties du modèle par les couches d'attention et de fusion, ajustant automatiquement les caractéristiques qui doivent être renforcées ou atténuées, formant ainsi une optimisation en boucle fermée. En revanche, dans l'IA Web3, les résultats des appels API sont souvent évalués et ajustés manuellement ou par des processus externes, manquant d'un retour d'information automatique de bout en bout, ce qui rend difficile l'itération et l'optimisation en ligne des stratégies de fusion.

Les barrières dans l'industrie de l'IA se renforcent, mais les points de douleur ne sont pas encore apparus.

En raison de la nécessité de prendre en compte l’alignement intermodal, le calcul de l’attention sophistiqué et la fusion de caractéristiques de grande dimension dans la formation de bout en bout, le système multimodal de l’IA Web2 est souvent un projet d’ingénierie extrêmement vaste. Non seulement cela nécessite des ensembles de données intermodaux massifs, diversifiés et bien annotés, mais cela nécessite également des semaines, voire des mois d’entraînement sur des milliers de GPU ; En termes d’architecture de modèle, il intègre divers concepts de conception de réseau et technologies d’optimisation les plus récents. En termes de mise en œuvre de projet, il est également nécessaire de construire une plateforme de formation distribuée évolutive, un système de surveillance, une gestion des versions de modèles et un pipeline de déploiement. Dans la recherche et le développement d’algorithmes, il est nécessaire de continuer à étudier des variantes d’attention plus efficaces, des pertes d’alignement plus robustes et des stratégies de fusion plus légères. Un tel travail systématique complet et complet a des exigences extrêmement élevées en matière de capital, de données, de puissance de calcul, de talents et même de collaboration organisationnelle, de sorte qu’il constitue un obstacle industriel solide et a également créé la compétitivité de base maîtrisée par quelques équipes de direction jusqu’à présent.

Lorsque j’ai examiné les applications d’IA chinoises en avril et que j’ai comparé l’IA WEB3, j’ai mentionné un point de vue : dans les industries avec de fortes barrières, la crypto peut réaliser des percées, ce qui signifie que certaines industries ont été très matures sur les marchés traditionnels, mais il y a d’énormes points faibles, une maturité élevée signifie qu’il y a suffisamment d’utilisateurs familiers avec des modèles commerciaux similaires, et de grands points douloureux signifient que les utilisateurs sont prêts à essayer de nouvelles solutions, c’est-à-dire une forte volonté d’accepter la crypto, les deux sont indispensables, c’est-à-dire, au contraire, Si ce n’est pas une industrie qui est déjà très mature sur le marché traditionnel, mais qu’il y a d’énormes points faibles, la crypto ne pourra pas s’y enraciner, il n’y aura pas de place pour la survie, et la volonté des utilisateurs de le comprendre pleinement est très faible, et ils ne comprennent pas sa limite supérieure potentielle.

L’IA WEB3 ou tout produit crypto sous la bannière de PMF doit être développé avec la tactique d’entourer la ville à la campagne, et l’eau doit être testée à petite échelle en position marginale, pour s’assurer que la base est solide, puis attendre l’émergence du scénario central, c’est-à-dire la ville cible. Le cœur de l’IA Web3 réside dans la décentralisation, et son évolution se reflète dans la compatibilité d’un parallélisme élevé, d’un couplage faible et d’une puissance de calcul hétérogène. Cela rend l’IA Web3 plus avantageuse dans des scénarios tels que l’edge computing, et convient aux tâches avec des structures légères, un parallélisme facile et des incitations, telles que le réglage fin LoRA, les tâches post-formation alignées sur le comportement, l’entraînement et l’annotation de données crowdsourcing, l’entraînement de base de petits modèles et l’entraînement collaboratif des appareils de pointe. L’architecture du produit de ces scénarios est légère et la feuille de route peut être itérée de manière flexible. Mais cela ne veut pas dire que l’opportunité est maintenant, car les barrières de l’IA WEB2 viennent tout juste de commencer à se former, l’émergence de Deepseek a stimulé les progrès de l’IA de tâches complexes multimodales, qui est la concurrence des entreprises de premier plan, et c’est le stade précoce de l’émergence des dividendes de l’IA WEB2, je pense que ce n’est que lorsque les dividendes de l’IA WEB2 disparaissent, les points douloureux laissés par celle-ci sont les opportunités que l’IA WEB3 peut exploiter, tout comme la naissance originale de la DeFi, et avant que le moment ne vienne, l’IA WEB3 Nous devons soigneusement identifier l’accord qui a « les zones rurales entourant les villes », s’il faut couper à partir de la marge, d’abord prendre pied fermement dans la campagne (ou petit marché, petite scène) où le pouvoir est faible et le marché a peu de scènes enracinées, et accumuler progressivement des ressources et de l’expérience ; Si cela n’est pas possible, il est difficile de compter sur le CMR pour atteindre une valeur marchande de 1 milliard de dollars sur cette base, et de tels projets ne seront pas sur la liste de surveillance ; NOUS DEVONS FAIRE ATTENTION À SAVOIR SI LE PROTOCOLE D’IA WEB3 DOIT ÊTRE ENTIÈREMENT FLEXIBLE, FLEXIBLE POUR DIFFÉRENTS SCÉNARIOS, PEUT SE DÉPLACER RAPIDEMENT ENTRE LES ZONES RURALES ET SE RAPPROCHER DE LA VILLE CIBLE À LA VITESSE LA PLUS RAPIDE.

À propos de Movemaker

Movemaker est la première organisation communautaire officielle autorisée par la fondation Aptos, lancée en collaboration avec Ankaa et BlockBooster, qui se concentre sur la promotion de la construction et du développement de l'écosystème Aptos dans la région sinophone. En tant que représentant officiel d'Aptos dans la région sinophone, Movemaker s'engage à créer un écosystème Aptos diversifié, ouvert et prospère en connectant des développeurs, des utilisateurs, des financements et de nombreux partenaires écologiques.

Avertissement :

Cet article/blog est uniquement à titre informatif et représente les opinions personnelles de l’auteur et ne représente pas nécessairement la position de Movemaker. Cet article n’a pas pour objet de fournir : (i) conseils en investissement ou des recommandations d’investissement ; (ii) une offre ou une sollicitation d’achat, de vente ou de détention d’actifs numériques ; ou (iii) des conseils financiers, comptables, juridiques ou fiscaux. La détention d’actifs numériques, y compris les stablecoins et les NFT, est extrêmement risquée, son prix est très volatil et peut même devenir sans valeur. Vous devez examiner attentivement si le trading ou la détention d’actifs numériques vous convient à la lumière de votre propre situation financière. Veuillez consulter votre conseiller juridique, fiscal ou en placement si vous avez des questions sur votre situation particulière. Les informations fournies dans cet article, y compris les données de marché et les statistiques, le cas échéant, sont fournies à titre d’information générale uniquement. Un soin raisonnable a été apporté à la préparation de ces figures et graphiques, mais aucune responsabilité n’est acceptée pour les erreurs ou omissions factuelles qui y sont exprimées.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)