原文标题:《技术可扩展性如何创造社会可扩展性》
本文假设读者熟悉NickSzabo的《社交网络的可扩展性》、VitalikButerin的《弱主观性》以及HaseebQureshi的《为什么去中心化并没有你想象中那么重要》等几篇文章。
但本文并非为了反驳Szabo的文章与其立场。
Szabo在其文章的结尾处将社交网络可扩展性定义为「牺牲计算效率和可扩展性——消耗更多廉价的计算资源——从而减少和更好地利用涉及现代机构所需的巨大人力资源支出。」
比特币现金和比特币SV对比特币的成功分叉无疑支持了这一理论。
然而,自从Szabo在2017年2月发表该雄文以后,加密生态已经取得了长足的进步。尽管他早在大约20年前就提出了智能合约的想法,但直到最近两年,业界才开始认识到智能合约最有用的应用:DeFi。
DeFi的火爆改变了一切。
本文假设区块链最重要的功能不是非主权货币本身,而是DeFi。
该体系主要功能的转变从严格的审查抵抗、非主权货币,到一个用于金融应用的高功能和可编程的开发环境,它牵涉到每一层技术堆栈,从网络层到执行环境。
因此,区块链首先应该作为DeFi开发平台进行设计和管理。
可预测性就是力量
人们经常会问我这样一个问题:「你觉得这个世界未来10年会有什么变化?」这个问题非常常见。但是我几乎从来没有被问过这样的问题:「在未来一个世纪,这个世界还有什么东西是保持不变的?」实际上我认为第二个问题更为重要,因为知道了它答案后,你就可以围绕那些不变的事物建立一个商业战略......在零售行业,我们是能够确定顾客希望更低的价格,我也知道这一点会在10年后成为现实;他们也想让物流变得更快;他们想要更多的选择。你很难想象10年后某一天,有顾客跑来跟我说:「Jeff,我超喜欢亚马逊;我希望你们商品的价格能再高一点」,或者「我很喜欢亚马逊;我希望你们的物流速度慢一点」——这是根本不可能的。所以我们将功夫花在这些不变的事物、推动它们的发展,我们知道今天所付出的精力将会在10年后为亚马逊的客户带来回报。当你确定了某些事是正确的,就可以为之投入大量精力。
声音 | 前Coinbase CTO发文:比特币成为技术旗帜:前Coinbase首席技术官、硅谷顶级风投a16z普通合伙人Balaji Srinivasan为了纪念比特币诞生11周年,撰写了一篇名为“比特币成为技术旗帜”的文章。文章中称,比特币(以及更普遍的加密货币)通过将价值表达在一段代码中,使我们超越了其隐含的意义,而这段代码同时也是一种投资工具。代码与开发人员对话,其优点吸引了投资者,其内在的价值与两者都有交流。如果你相信这些价值,你往往会购买比特币。Srinivasan接着表示,比特币是“意识形态的旗帜和谢林点(注:博弈论中人们在没有沟通的情况下的选择倾向)”。所以本质上,Srinivasan所指的是“比特币的符号是一种意识的代表”。Srinivasan还补充称,Jack Dorsey运营Twitter,Reid Hoffman创建了领英(LinkedIn),Marc Andreessen和Peter Thiel是Facebook的董事——他们都支持比特币。同样,币安的创始人赵长鹏和Telegram的创始人Pavel Durov分别是加拿大华人和俄罗斯侨民,他们也支持比特币。(CryptoDaily)[2020/1/11]
——亚马逊创始人兼CEOJeffBezos
这里有一些数据:Coinbase当前注册用户约5000万,罗宾汉的用户数量大致相当,大多数美国大型银行也是这个数量级。
假设Coinbase的战略重点是尽快将它的所有用户都迁移到DeFi,同时监管环境也支持它。设想一下,Coinbase能在以太坊上做到吗?
当然,这是一个目前无法回答的问题。在技术上,它不是不能实现,实际上可能性还挺大。但是没有谁或者某个机构可以回答这个问题。原因是什么?
因为没有人真正掌握以太坊未来将会怎么进行扩展。举个简单例子,Vitalik曾经表示optimisticrollup可能是近期到中期最理想的扩展方案,而从长远来看,zk-rollups则会占主导地位。但是问题来了:这个转折点会在什么时候,以什么方式发生?是否需要开发/重构什么基础设施?这些不同rollup之间的资金怎么流动,它对智能合约开发者、钱包、用户、流动性提供者、法币通道等方面有什么影响?
声音 | 分析师:庞氏局PlusToken是导致比特币看跌的原因:据UToday报道,比特币交易员Jacob Canfield最近表示,韩国比特币庞氏局PlusToken可能是导致比特币价格看跌行动的原因。据?CipherTrace发布的一份报告,PlusToken从投资者那里窃取了约29亿美元的数字资产。[2019/12/4]
而且,似乎无论哪种扩容方案更加重要,它都不可能是一个整体的实例化。以太坊扩容的后果都是异构的。
从长远来看,这样对以太坊来说可能是一件好事。当前的扩容方案都有各自的取舍,并且也不清楚哪种取舍是最好的,或者扩容方案相互组合会更好。因此从长远来看,以太坊生态最好的选择是尝试多种扩容方案,并从中找出哪种方案最适合哪种应用,然后配置桥接、其他互操作性方案以及解决延迟问题。
另外,开发扩容方案的所有团队都获得了充足的资金,已经开始上线和面向用户。因此他们会持续进行开发。
那么,Coinbase应该怎么将5000万多名用户引入DeFi呢?
在如此庞大的用户规模基础上,最重要的一个考虑因素是确定性。任何达到该规模的企业都非常需要现在以及未来的确定性。
大型企业绝对承担不了押注错误技术堆栈的后果,错误的机会成本以及后续迁移/桥接的代价非常巨大。
我认为,现在——或者在未来两年内——能够回应这个问题的唯一区块链协议是Solana。
所有基于rollup的扩容方案都受制于上述困扰。尽管有不少优秀团队筹集了数十亿资金进行研究开发,但实际上所有分片系统都没有扩展到大规模。即使它们以PoC共识工作,也需要处理许多新出现的问题。
这里需要明确一点,我并不是指分片和rollup无法进行扩容。实际上我对这两种方案持乐观态度。但是,它们在目前没有真正发挥作用,并且会产生许多无法避免的二阶和三阶问题。由于多个相互交织的组件对以太坊进行扩展,一个需要可扩展确定性的大型机构很难在未来两年内得到它想要的。
分析 | 比特币或将填补CME期货价格缺口而跌至8400美元:据The Daily Hodl消息, 加密货币分析师The Cryptomist表示,比特币填补芝加哥商品交易所(CME)期货的价格缺口只是时间问题。从历史上看,比特币填补了CME期货市场关闭和重新开放时产生的价格缺口。根据他的说法,第一个1089美元的空缺已经被填补,而剩下的两个空缺分别是上升到11800美元和下降到8400美元。另外,加密货币分析师Josh Rager正在描绘比特币的周线图,他表示,比特币跌破10185美元的支撑位意味着可能很快触及9500美元。[2019/8/15]
碎片化的社交网络可扩展性成本
除了上述的不确定性,分散在各个分片和rollup之间的应用会产生明显的新型社会协调成本,而这在单分片系统中是不存在的。以下为几个例子:
目前,Layer1和各个Layer1之间的区块时间和计算吞吐量有所不同。这一点直接关系到所有管理风险的DeFi协议的实现方式。其中,一些DeFi团队已经承诺在多个Layer1和Layer2部署合约。但是,每个执行环境都需要唯一的风险参数。这会增加每个协议社区所需的社会协调数量,减慢行业发展速度。
退出optimisticrollups需要较长时间。市场普遍认为做市商会在rollup和Layer1之间提供流动性桥梁。但是,该操作的实现细节比较棘手。协议前端应该提供原生支持吗?如果是这样,他们是否应与特定做市商「签约」?还是把它留给前端用户自己去配置?如果用户想从一个ORU转移到另一个ORU,该怎么办……用户如何传递信号给应用,从而操作Connext或Thorchain而不是退出到Layer1?
对于Metamask用户,用户自己管理这么复杂的操作可能比较合理。但是对于试图抽象出复杂性的小众钱包,这些团队需要花费多少额外的开发时间来解决这些问题?又被迫放弃多少新功能?如果做市商出于某种原因停止在某个桥接/细分市场的流动性,那该怎么办?有哪些备份选项?
分析 | coindesk分析:比特币有望上涨至4040美元:据coindesk分析,比特币的昨日上涨快速扭转了近期的损失,这加强了价格将反弹至4000美元的心理预期。从技术面看,比特币有望上涨至4040美元;若比特币价格下跌至3658美元,则反弹将结束。[2019/3/6]
必须更新开发者工具来处理新的数据结构。索引和查询层将需要进行重大升级,应用开发人员可能需要重新编写其子图以处理新的数据结构。开发人员将被迫跨各种异构扩展方案重写大量应用。
随着分片和Rollup数量的激增,开发交易所将变得更具挑战性。这些问题都不棘手,但是它们会减慢开发速度,还会让不想面对这些问题的众多开发人员感到有心无力。
可预测,但又很无聊的扩展性
Solana当前可支持每秒50,000笔交易,全球网络节点已经突破600个。最重要的一点在于,Solana提供了无限扩展的可预测路径。由于它可以在GPU上并行执行事务,因此可以利用GPU并行性带来的巨大增益。
摩尔定律可能是过去50年中最重要的经济力量。但是今天它更多呈现出一种假象。
大约10到15年前,摩尔定律就不适应于单线程计算。因为热量的产生随着时钟速度超线性增加。这就是扇形设备停滞在大约3.5-4GHz,而无风扇设备停滞在1.5-2.0GHz的原因。尽管过去十年来各种优化让单线程性能有所提高,但单线程性能并没有做到每18-24个月增加一倍。
在过去的十年,几乎所有的计算收益都来自芯片专业化和并行计算。现代台式机图形卡通常有4000多个内核。上个年代,每张芯片的内核数量一直在按摩尔定律增长,并且这种趋势将持续下去,因为增加的内核数量所产生的热量几乎不影响时钟速度的提升。
Solana是唯一一个通过SeaLevel运行时进行分片内并行计算的区块链。SeaLevel在GPU本地执行事务。如果Nvidia在未来一两年发布8,000内核的新型GPU,Solana网络的计算带宽将增加大约一倍。
在这个过程中,开发者不用了解,或者不用在乎,也无需更改任何一行代码。
这就是可预测性的定义:开发者今天写好了代码,就知道它会一直生效,而且未来执行代码的成本还比现在低。
这时候,扩展计算的主要物理限制是散热。在字面上,Solana的扩展性能够做到物理上限。
量化去中心化以及弱主观性
从表面上看,许多人认为Solana协议不够去中心化。当然,他们并没有真正去量化这个说法,但却不断重申这一点。事实到底是怎么样呢?让我们做一些计算,来量化一下各个网络的去中心化程度。
首先我们来看一下硬件成本:
比特币可以在一个价值25美元的RaspberryPi上运行,只需要微弱的互联网连接。
以太坊在一台500美元的笔记本电脑上运行,需要宽带连接。
Solana需要运行在一个3500美元左右的服务器,需要千兆网络连接。
下一个主要考虑因素是状态大小。在50,000TPS和数十亿用户的情况下,Solana的状态大小将会增大。这一点非常好,为什么?因为1)假定Solana运行在可升级存储的服务器,2)NVMeSSD通过RAID0线性扩展读写性能,以及3)多字节NVMeSSD不到300美元——扩展状态存储的成本和维护成本将会微不足道。
如果读到了这里并且理解了前面的所有内容,那么您使用价格超过2,000美元的MacbookPro的可能性就很大了,这也是世界上5000万到1亿左右的开发者所钟爱的高端计算机。我怀疑对500到1000美元的硬件进行优化是最理想的做法。那么500到1000美元价位有什么特别之处呢?
我们来考虑一下硬件需求上限的合理价位。25,000美元肯定太高,因为开发者没有这种硬件。现在换一种思路,我们不考虑任意的硬件成本,而是从需要多少个节点来实现足够的防审查能力。很明显,这里的「足够」一词本质上是主观的,但是如果您假设需要100万个节点,那么自然会产生一个问题:「这个世界上有没有足够多的,价值3500美元的服务器和千兆网络连接,让100万个节点看起来比较合理?」
考虑一下世界上所有高端硬件的游戏玩家、开发者和企业的数量,我们很难对这个问题进行否定。
所以不能孤立地考虑硬件成本问题,而必须在系统的设计目标范围内去进行考量。
此前我曾经认为区块链应该迎合DeFi,而不是一味追求最大程度的审查抵抗性。根本没有必要对25美元或者500美元的硬件进行优化,因为绝大多数人永远都不会运行一个节点。那么,为什么还要费心去优化硬件成本及其基础上的协议呢?
这个世界是弱主观性的
这就来到了弱主观性,同时承认去中心化并没有你想象中那么重要。
这个世界是弱主观性的。意味着什么呢?我们来看一下下面的例子。
回忆一下,你上一次走进一栋高楼的时候,是先对建筑结构进行检查,然后询问建造商,从而确保这栋高楼不会坍塌然后把你埋了?
坐飞机,开车或者在你家的时候,有没有这种想法?
所以说,这个世界的所有事物都基于某种程度的信任。如果每个人都要独立验证所有相关事物的结构完整性,那么这个世界就无法正常运转了。
反过来我们可以认为:世界之所以能够正常运转,是因为每个人都知道已经有许多其他人对系统进行了验证,系统安全的概率非常高。
这就是弱主观性的基本假设。这个理论应用到节点数量的时候,就变成了这个关键问题:在没有运行节点的情况下,用户自己是否可以合理地假设有足够其他参与者和机构运行着节点,从而可以信任该系统?
Solana目前的节点数量约600个,在一年前只有100个左右。像其他区块链一样,随着生态的持续发展,节点数量还会随着时间推移而增长。类似于目前的主流区块链,随着时间流逝,越来越多用户采用,传递的价值越来越多,Solana网络自然会越来越去中心化。
这也是Qureshi观点的正确性,并且去中心化并没有你想象中那么重要。很显然,去中心化对审查抵抗至关重要。但目前业界也没有一个清晰的阈值,而且具体的数值本身并不重要——真正重要的是:1)风险-去中心化程度曲线实际上是反向的S曲线,以及2)我们知道区块链随着时间的推移会变得更加去中心化,因此审查抵抗能力会随之提升。只要区块链去中心化的速度足够快——并且你相信它可以去中心化程度增加的速度——那么用户就能够维持他们所需的审查抵抗性。
图片来源:HaseebQureshi《为什么去中心化并没有你想象中那么重要》
结论
于是现在的基本问题变成了:如何分清「本末」?
从2009年比特币诞生以后的第一个十年,很显然审查抵抗性、非主权货币是「本」,而其他的应是「末」。
但这个情况正在改变。如今加密货币的使用者会认为,DeFi会完全重塑金融。因此我觉得「本末」已经反转:如今DeFi是「本」,而非主权货币是「末」。
它们两者都需要一定程度的审查抵抗性,但是在技术受限的情况下,最大化DeFi效用与最大化系统审查抵抗性之间就出现了一个基本的取舍。
而当系统的基本设计目标发生变化的时候,相关的技术堆栈也需要随之变化。为了将DeFi扩展到数十亿用户的规模,每一层堆栈都必须遵从第一性原理,进行重新考量。
致谢:感谢Hasu对本文草稿的审核。
附录:以太坊与Solana的简单对比
比特币和以太坊在各自的设计中都进行许多假设,最明显的也许要数网络层和执行层。
网络层
在网络层,比特币和以太坊利用八卦协议。八卦协议也就是每个节点不加选择地将数据广播到其他每个节点。虽然这可以最大程度地提高审查抵抗性,但却以牺牲一部分性能为代价。按照定义,以高度冗余的方式重新广播数据效率不高,因此无法正确地针对高吞吐量DeFi应用进行优化。
另一方面,Solana发明了一种新的名为涡轮的网络协议,它的灵感来自BitTorrent协议。涡轮对效率进行了大幅优化,其工作原理如下:我们来考虑一个1MB大小的区块。其中节点不是将整个区块传输给另一个节点,而是将10KB传输到节点#2和#3,然后那些节点将这10KB区块重新广播到节点#4和#5,依此类推。然后原始节点向节点#6和#7广播另一个不同的10KB数据包,随后这些节点将这10KB内容重新广播给节点#8和#9,依此类推。此外,该模型的优点在于,随着节点数量的增加,延迟时间以及可用的绝对带宽保持不变。唯一降低的性能是,与大多数其他线性或超线性增加的系统相比,延迟增加了log(n)。
执行层
在执行层,EVM是单线程计算机。由于任何交易都可以修改全局状态的任何部分,因此为了支持并行性,系统需要某种方式来确保两笔交易不会尝试同时写入同一个状态。EVM选举根本无法处理该问题,它只能简单地串行执行所有交易。
Solana是唯一尝试处理分片内并发的协议。它是怎么做到的呢?Solana的运行时SeaLevel要求交易标头指定交易所有的相关状态。借助此信息,SeaLevel可以确定哪些交易可能发生冲突,并将对其进行序列化。所有不重复的交易都可以并行化,在数千个GPU内核中并行运行。
披露:Multicoin已制定、维持和执行合理设计的书面政策和程序,以识别和有效管理与其投资活动有关的利益冲突。在公开发布后的三天内,MulticoinCapital对本报告所列资产遵守「无交易政策」。MulticoinCapital持有SOL和ETH的仓位。
来源链接:multicoin.capital
撰文:KyleSamani,MulticoinCapital管理合伙人
标签:比特币SOLAOLADEF比特币卖了一亿怎么转回国内SolarCoinchocolates去中心化金融defi入门分析与理解
很多朋友因失误操作踩坑众多陷阱,导致财产损失严重,更有甚者在牛市中归零,真的是惨不忍睹。今天给大家举几个典型的例子,希望大家可以引以为戒,避开这些陷阱.
金色周刊是金色财经推出的一档每周区块链行业总结栏目,内容涵盖一周重点新闻、矿业信息、项目动态、技术进展等行业动态。本文是其中的新闻周刊,带您一览本周区块链行业大事.
狂人本着负责,专注,诚恳的态度用心写每一篇分析文章,特点鲜明,不做作,不浮夸!本内容中的信息及数据来源于公开可获得资料,力求准确可靠,但对信息的准确性及完整性不做任何保证,本内容不构成投资建议.
进入5月,风头正盛的挖矿热潮迎来了重磅打击。国务院金融稳定发展委员会发文打击比特币挖矿和交易行为,四川、新疆部分地区“暂停向矿场供电”,内蒙古设立虚拟货币“挖矿”企业举报平台……挖矿行业开始进入.
在经历了一年多的牛市之后,整个加密货币市场迎来调整,DeFi中的各项数据也因为价格下跌而受到影响.
今天这篇东西是基于这些天来对数据经济和ownershipLabs在做的事情的一些思考,主要的研究范本是Oceanprotocol。第二部分则是近期对NFT和数据结合的想法.