观点作者:Maxim Legg,Pangea创始人兼CEO
区块链行业正面临关键性基础设施挑战。尽管我们赞颂理论上的高交易速度并推崇去中心化理念,但当前基于RPC的系统和传统索引方法引入了显著的延迟问题。试想,如果20秒加载时间在Web2应用中被视为不可接受,我们为何要在Web3环境中妥协接受?
数据显示,53%的用户会在网站加载超过三秒后选择放弃等待,这意味着我们行业对延迟的默认接受实际上是对大规模采用的生存威胁。
缓慢的交易处理不仅仅是用户体验问题。像Aptos这样的高性能公链每秒可处理数千笔交易,然而,我们却试图通过"科学怪人式索引器"来访问这些数据——这些系统由Postgres和Kafka等工具拼凑而成,而这些工具本质上从未被设计用于满足区块链的独特需求。
技术债务的隐性成本
这些问题带来的后果远超简单的延迟。现有索引解决方案迫使开发团队面临一个两难选择:要么构建定制化基础设施(耗费高达90%的开发资源),要么接受现有工具的严重局限性。这造成了一个性能悖论:区块链运行速度越快,数据基础设施瓶颈就变得越明显。
在实际市场环境中,当做市商需要执行跨链套利交易时,他们不仅要与其他交易者竞争,还要与自身的基础设施限制作斗争。每一毫秒的节点轮询或状态更新等待时间都代表着错失的机会和潜在的收益损失。
这已不再是理论问题。主要交易机构目前运营着数百个节点,仅仅为了维持具有竞争力的反应时间。当市场需求达到峰值性能时,基础设施瓶颈成为关键失效点。
传统的自动做市商机制或许适用于低交易量的代币对,但从根本上不足以支撑机构级别的交易需求。
如今大多数区块链索引器更准确地说是数据聚合器,它们构建了简化的链上状态视图,虽然适用于基础场景,但在高负载环境下性能迅速崩溃。这种方法或许足以应对第一代DeFi应用,但在处理多个高性能公链上的实时状态变化时则完全不足。
重新思考数据架构
解决方案需要从根本上重新思考我们如何处理区块链数据。下一代系统必须直接将数据推送给用户,而非通过传统数据库架构集中访问,从而实现本地处理以获得真正的低延迟性能。每个数据点都需要可验证的来源,通过时间戳和证明确保可靠性,同时降低操纵风险。
一场根本性的转变正在进行中。随着区块链速度提升和gas费用降低,复杂的金融产品如衍生品在链上变得可行。此外,衍生品被用于价格发现,这一过程目前主要发生在中心化交易所。随着区块链变得更快更经济,衍生品协议将成为价格发现的主要场所。
这种转变需要能够在"眨眼之间"(100至150毫秒内)传递数据的基础设施。这一时间阈值并非随意设定,而是人类感知延迟的临界点。任何超过这一阈值的延迟都将从根本上限制去中心化金融的发展潜力。
市场力量的迫近融合
当前过度依赖节点轮询和延迟不一致的模式无法满足严格金融应用的扩展需求。我们已经观察到重要交易机构正在构建日益复杂的定制解决方案——这明确表明现有基础设施无法满足市场需求。
随着更高效的区块链和更低的gas费用使复杂金融工具成为可能,实时流式传输状态变化的能力对市场效率变得至关重要。当前以多秒延迟聚合数据的模式从根本上限制了去中心化金融的发展潜力。
新兴区块链正将数据吞吐量推向前所未有的水平。如果没有相匹配的数据基础设施进步,我们将创造出连接着自行车轮子的法拉利引擎——拥有强大动力却无法有效发挥其性能。
变革的迫切性
市场将推动这种变革。那些无法适应的参与者将在生态系统中逐渐失去相关性,在这个生态系统中,实时数据访问不再是奢侈品,而是参与的基本必要条件。
观点来自:Pangea创始人兼CEO Maxim Legg
相关推荐:赋能社区并塑造加密货币的未来