中心的信任系统逐渐暴露出数据泄漏和过度审查等问题,DSP Labs 尝试从数据文件加密、分发、存储、共享等维度改善中心化互联的数据弊端。

原文标题:《Hello New World》
撰文:DSP Labs

这是 DSP Labs (Distributed Storage Protocol Labs)留下的第一个足迹,也是互联网下一个阶段的开始,为了实现我们理想中的网络世界,我们决定要为明天的互联网做一些努力,于是我们来了。

我们就是 DSP(Distributed Storage Protocol) 协议,一个基于数据文件加密、分发、存储、共享等多维度的新一代互联网协议范式,DSP 协议的目标是成为下一代互联网的核心基础设施。

中心化互联网数据弊端堪忧,DSP 协议试图从可信任存储等维度改变现状

驱动力

人类文明兴起与发展的历史,是一个合作规模不断扩大的历史。即使在今天,也很难想象人类有什么紧急难题是不能通过更多的合作来解决的——不同政治派别、不同语言、完全不同意识形态的人们之间的合作。我们作为一个物种所取得的许多成就 , 比如互联网或太空旅行都是全球性的通力合作完成的。互联网是我们最早的全球合作体系之一,在这个体系中,信任并不主要基于机构。至少一开始不是。而如今的基于 HTTP 协议的互联网,逐渐变成一个基于对机构,组织,公司,甚至国家的信任框架下才能运转的网络世界。但这种基于中心的信任系统逐渐开始暴露出很多问题。

全球 IOT 智能设备无法真正互联互通

当今的物联网环境往往是割裂的封闭体系,广域物联网和局域物联网不能发生交互,私有化部署的工业系统基础的 IT 网络难以连接,然而物联网的数据往往需要较高的一致性和安全性,这是任何一个中心化体系下的技术难以解决的问题。从物联网诞生的那一天开始,它就是碎片化的。导致的结果就是不同品牌的共享设备,都需要用不同的应用程序才能打开,这些节点并不等价,并没有标准,是碎片化的。同一类型的设备都不能互通,更不用说不同的设备。

网络传输效率低下

当前以中心化服务器或者服务集群为主的模式中,当网络中出现一个热资源或者当某些特定的时间引发大量的终端访问同一个文件资源的时候,往往会出现网络拥堵而无法正常对文件有效访问。HTTP 这种依赖主干网络进行资源集中访问也会带来较高的服务器运营成本和宽带成本,也就意味着大量的分支网络的宽带被浪费。另外对于传统的 ISP 服务商提供的带宽经常具有上传与下载的不对称性现象的存在。

分裂数据存储下的数据冗余

目前在各大互联网平台都自建或者租用独立存储中心的情况下,全球分散着无数的中心化数据库,但因为数据网络的不互通,导致里面会存储着相同的文件内容。例如同一个电影授权给不同的视频播放平台播放,这就会意味着同样的一份视频文件会存在不同的视频平台的存储中心,同时为了不同地区的用户访问速度的优化,同一个文件即使在同一个平台下都会进行多地域存储。这样致使整个网络因为存储网络的独立而形成大量的冗余数据,无形中也带来了巨大的存储成本。

数据所有权问题

在如今的互联网技术中,对于个体用户,其实我们的数据资料,文件资料,数字身份,都不在自己的手中,而是全部掌握在互联网寡头手中,当我们需要我们的身份和我们的数据文件时,要通过繁琐的程序向这些巨头和机构申请,换句话说,我们的网络数据并不属于自己,而是数据科技巨头。我们对数据的任何操作,都需要中心化机构的授权。甚至,他们肆无忌惮的利用我们的这些隐私去垄断市场,为自己的帝国添砖加瓦。

数据大量丢失

两千年前,亚历山大图书馆被烧毁,历史上成千上万的珍贵文件从世界上永久的消失了。所有人都认为这是人类的悲剧,然而这种事每天都在网络上发生,据统计,一个网站的平均寿命大约是 100 天,每个月 2% 的网络链接会永远消失。当你想到今天 web 在文化和信息方面是多么重要时,就会意识到这些数字是毁灭性的,像互联网档案基金会这样的非盈利组织正试图备份整个 web,但实际上按照现在的 web 发展和小时速度,这是一个不可能完成的任务。

文件索引失效

当前,基于 HTTP 协议的基础上,查找网络中某个数据是基于文件所在位置寻找,而不是通过内容来标识数据,这种限制意味着如果只是记住了文件所在位置,一旦文件被移动,将无法再次找到该文件,即使文件依然存在于网络中。

哈佛大学最近的一项研究表明,美国最高法院意见中引用的所有超链接 49% 已经不再起作用了。意见指向过去某个时候保存了正确内容的位置,但是该位置不再提供该内容。这样的数据存储是脆弱且低效的。

数据泄露

早在 2017 年《经济学人》就宣布数据是「新石油」,如今,人们竞相在网上获取尽可能多的数据,同时用户的数据能带来更好的广告。不幸的是,这些数据是存储在中心化服务器上的,而这些服务器是黑客最喜欢攻击的目标,即使像 Facebook 和 Google 这样雇佣了世界上最好工程师的公司,也同样发生了多次数据泄露事件。一旦开始在中心化服务器中存储数据,就会产生窃取数据的动机,因为本质上每个系统都是可以破解的。

被监控及过度审查

实际上,很多的企业甚至政府搭建的网络环境和应用中,我们在网络浏览和存储的信息实际上是被强制监控及过滤,甚至无法访问大多数需要访问的内容,任何的浏览行为都在被中心化的记录存储甚至评判,企业会通过个人数据进行由利益驱动的推送行为。这实际上是很令人担忧的。

互联网链路状态不稳定

在目前的网络世界中,由于单点故障导致的某条链路异常,就会很容易造成某个节点到另一个节点直接的数据传输异常或者缓慢,并且一旦发生,在非人为干预的情况下,几乎无法恢复。例如特斯拉服务器曾短时间出现问题,不仅造成全球依赖 app 开启车辆的车主无法打开和驾驶车辆,还引发了一些其他的社会问题。

开发者不友好

由于传统互联网机构的中心分化,在传统的网络协议中,要构建像 Uber 这样的应用程序,你需要安装很多的组件,比如支付,存储,身份管理。当另一家公司建立一个 DiDi 这样的应用,同样需要重新构建这些组件,大量的重复工作。

随着这些问题的出现,我们也正在接近这种信任体系下的极限。实际上我们需要开始帮助互联网转移信任的目标,从对机构的信任转移到对技术的信任。

值得欣慰的是,这些问题已经逐渐被人注意到并且已经开始有人试图去解决这些问题,一些分布式存储相关的协议项目也正在做着努力。但从目前的情况来看,相关领域及项目仍然存在大量问题仍待解决。例如:

  1. 缺少端到端的加密,这样意味着所有发生的浏览行为对运营商都是公开的,用户什么时候看了什么内容,发布了什么内容,都是可以完全记录的。政府如果想要列出某篇文章的读者的 IP 地址,也不是什么难事,从这些地址推算出背后具体的人,同时这样的数据也会变成一个人人可偷的数据。
  2. 缺少加密去重机制,在没有加密的情况下为了避免例如将色情图片推送给女性或者将宗教禁忌内容推送给不合适的人这样的事发生。导致不能把数据自动推送到其他节点。但如果这是加密数据,是都看不出内容的随机数的密文,也就不存在这个问题。目前现有的项目不加密,与没有密文去重技术有直接关系。没有这项技术,就只能在加密和去重之间二选一做妥协。
  3. 缺乏数据持久性保障机制,当网络中缺少持久性保障机制时,意味着任何一个存储节点都可以决定某些数据是否还需要存在网络中,甚至也可以在一次存储后就不再维护,这样就无法确保整个网络内容读取和访问的稳定性,随时有可能造成数据的丢失或者无法索引,这样导致整个网络不能作为成熟的商用环境进行使用,只能作为实验性环境进行很有限的应用场景的使用。
  4. 缺少内容删除机制,在现有的协议下每个用户必须手动检查内容,承担完全的法律风险,即使通过合法的程序认定某篇文章为诽谤或者侵权,也没有任何的机制可以让节点自动下线内容,而是需要每个节点人工删除,如果不主动删除,那就会继续传播内容,直到被到期清理。节点默认存储下载过的内容,如果一个人阅读了非法内容,那此人也会为其它节点提供非法内容,即从非法内容的消费者变成了传播者。
  5. 缺少端到端的共享能力,从本质上来说还是端到服务的传输,并没有通过协议本身实现客户端之间直接的数据分发共享能力。这样则对于客户端这种轻节点来说,无法实现数据的存储,分发和共享操作。
  6. 缺少共享权限控制,对于现有存储网络中的文件来说,任何文件对于所有人的访问权限都是一致的,且目前都是完全开放的,同一个文件无法针对不同的用户进行不同的访问权限控制,这就极大的限制了很多的内容分发共享的场景。

未来

我们需要的是一组全新自由开放的网络协议——基于这套协议,人们可以实现真正意义上的数据自由,互联自由。同时在自由的网络下需要可以构成一个用户数据文件共享库(数据库),这个数据库是中立的,由用户自己共同拥有。这意味着没有任何人类机构能够控制它。当然,建立这样的数据库并不容易,因为必须有人付出大量的工作以保持它的准确性。传统上,我们依靠像科技巨头这样的中介,以及银行和政府来保证数据库的安全。而现在,我们想要的是基于数学和物理的数据库信任。换句话说,数据库必须是自我监督,自我运行,自我管理的。我们不应该依赖 Google,Facebook 的承诺来保护我们的数据免受伤害或者如何存储,或者如何使用。这一切都应该回归到个人身上,数据的存储,分发,使用,分享,授权都能完全被个体掌控,只有这样的网络协议环境下,才能拥有真正的数据自由。作为一个开放自由的网络协议,我们需要任何有联网能力的设备都能通过新的协议加入网络中,成为网络中一个数据点,而不只是那些拥有特殊配置或者特殊授权设备。所有的设备共享同一个网络环境,所有设备的数据交织在同一个网络。

DSP 希望加速创造一个基于分布式,去中心化,并且使万物互联的平行世界网络,打造拥有更高性能,更经济,更安全,更开放的数据共享传输协议及文件存储网络,作为下一代互联网的根基,为整个网络提供信息数据快速,自由和安全的交互,降低数据的传输以及存储成本,加速信息自由时代的革命。

改变

万物互联

DSP 将对外部网络设备提供标准化网络协议接口,在基于 DSP 的网络协议下的标准化连接下,可以使不同的设备以标准化的协议接入同一个网络,通过标准化的协议接口接入网络后进行数据的传输,分享与存储。并且所有的接入设备都会拥有自己在网络中的身份标识,这样不同类型,不同公司,不同属性的设备最终会形成数据的互通互联,最终形成一个真正万物互联的网络世界。

版权控制,数据分发

DSP 可以提供完整的版权控制协议,通过版权控制协议可以使同一份文件按照版权归属分发给不同的版权所有人,这样全网用户实际上共享的是同一份文件本体,避免了不同的版权人需要单独维护一份文件内容,最大程度避免的数据存储的冗余,同时节省了大量的存储成本。

文件数据的归属权还给用户个人

在基于 DSP 协议的网络世界中,所有的数据和文件都不属于任何一个中心化机构,完全是由用户自己的身份来控制,甚至由于加密分片等协议的参与,存储了文件数据的节点都无法享有数据本身。DSP 要把用户自己的数据使用权完全交还给用户。如果任何时候你想删除某个数据,他会物理性的从网络中彻底消失。如果你想使某些数据授权某些人阅览,则只有被授权后,其他人才可以进行查看。用户拥有对数据的完全掌控权。

个人数据无法被泄露

DSP 作为去中心化的存储协议,不仅是把文件数据存储在不同的节点上,同时,同一份文件还将被分片加密的打散,这就意味着,即使拿到了一个节点的全部数据,也无法完整的拥有一份文件。多种加密方式的嵌套从根本上杜绝了数据泄露的可能性。

防止个人行为数据被监控及过度审查

在 DSP 协议中,所有的个人产生的行为数据及上传下载的文件数据,都是被针对性的加密处理,甚至可以通过路由协议进行路径混淆处理,使其无法追踪到具体的发送人和接收人。最大程度的保障了个人隐私的绝对安全,以及避免了被第三方机构利用的可能性。

确保数据永存

基于 DSP 协议的网络环境中,所有的数据都按照协议约定在不同节点中进行了多备份,这种备份是可以得到合理控制,可以在保障数据安全的情况下进行去重操作,降低存储网络的冗余性,亦或者可以选择像零网一样,选择最大程度的增加备份的数量和节点。最大化的保障重要数据的安全性。同时所有的备份会动态同步内容,在保障数据安全性的同时还保持了内容的时效性和一致性。当有外部意外导致某个备份产生故障而无法正常访问时,会有新的节点进行新的文件备份,这样的协议可以保障网络中文件和数据永久的存在。另外,通过改变网络中内容的寻址方式,从基于地址寻址变为基于内容寻址,这将彻底避免因为文件地址失效而带来的无法定位寻找网络文件的问题。

网络链路状态智能自我优化

在 DSP 协议支撑的网络中,全网所有结点之间的传输状态都应该可以实时抓取实时统计分析。全网链路联通状态都会完全透明并掌控,通过分析和智能调节,可以动态的改变某些节点之间的路径,避开拥堵或者故障链路,而使用通畅路径。这种调节是一种网络自动行为,并且在全网实时发生。通过这样的协议可以确保全网的所有节点之间的通讯和传输都处在一个最优化的状态中。网络的可用性将得到最大化的提升。

对开发者将更友好

在全新的协议框架下,分布式应用程序逐渐被创造的过程中,其中会用到的各种业务组件,比如身份,存储,支付等。这些业务模块的组件将被不同的组织和个人开发构建,同时组件将被贡献出来放在网络中以供复用,这样每个组件只需要构建一次,极大缩减了冗余的开发工作,将有助于开发者的精力更多的集中在业务本身。

我们认为这是下一个世界创新的基础,我们无法想象当一切尘埃落定之时,新一波的创新潮会怎样的涌来,但我们已经看到了一个进程的开端,它始于一些同样正在努力的技术,例如区块链,边缘计算,IOT 物联技术,零网,洋葱协议等。DSP 将是计算网络的一个基本的新范式,这个新范式的关键特征是以前从未说过的,那就是可信任存储,可编程的数据分布式存储分发网络协议。 所有的数据不再是自上而下的从机构流入个人,而是将开始自下而上的从个人和客户端涌向整个网络。