中财法律评论(第十一卷)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

网络法前沿

创生性的互联网[1]

Jonathan L. Zittrain[2]著 胡凌[3]

导言

从1969年诞生的那一刻起,[4] 互联网就被设计成以两种身份运行: 它既是一种建立合乎逻辑的网络的方式, 又是一种包含既有不同种类网络而又能使它们独立运行的方式。也即, 它既是一整套建筑物, 又是将这些建筑物黏合在一起的胶质。[5] 互联网还被建造为只要得到恰当连接 ( interface) , 就可以向任何设备开放——这几乎没有技术含量, 任何电脑或其他信息处理器都可以成为新网络的一部分。[6] 自从互联网以上述两种架构建立后,[7] 这些原理和将它们付诸实施的协议 ( protocols) 在本质上一直没有变化, 即使当网络已经成长并延伸覆盖至发达世界和发展中世界的上亿人口时, 也依然如此。[8]

个人电脑 (以下简称“电脑”或“计算机” ) 的发展既反映了互联网的爆炸式成长, 同时也促成了这一结果: 这是一种人们支付得起的多功能设备, 它可以随时在零售店买到, 也可以被用户以任何目的轻易地重新调配。为电脑编写软件——包括可为互联网识别的软件——的用户人数众多, 形形色色。[9] 这些广泛的用户推动着各式各样的应用程序, 为我们业已习惯的迅速的技术革新提供了强大动力, 这反过来又会推动在政治、娱乐、新闻和教育诸表达性领域的革新。[10]

尽管目前互联网和电脑如此持久稳固, 并且普遍地向第三方的贡献开放,以至于这似乎不可避免, 但这些技术本来并不需要被配置和允许广泛的第三方做出即刻贡献。本文将勾画互联网与电脑的创生性特征, 同时也将勾画被这些设备工具打败的替代性配置。尽管技术向第三方革新的开放性拥有一种强大的惯性, 这种惯性到目前为止抵制了政府管制和商业上的控制, 但这种开放正日益变得自相矛盾。本文随后将描述这种矛盾的诸种表现方式。

互联网技术专家们长久以来忽视了互联网和电脑的安全威胁, 这种威胁可能促成一种对今天互联网和电脑工作方式的空前干涉。这些安全威胁比源自于特别的操作系统缺陷的脆弱性要更加普遍和深入: 只要操作系统允许消费者运行第三方代码——电脑操作系统的必备要素 ( sine qua non) ——用户就能够执行恶意代码, 由此威胁到自己的和网络上其他人的工作。鼓吹对“信任”的关切很可能助长一场逐渐而根本的转变: 这场转变将发生在消费者对信息处理操作平台日益增长的稳定性需求中。这种转变将会与现存政府管制和商业上的压力发生相互作用, 从而产生一些解决方案, 它们都立基于推进经济上理性的并且经常受法律保护的利益。这些方案使得如下状况很可能发生: 未来的个人信息处理和网络互联环境之发展将会被阻碍, 这将与今天世界上大多数人享受的状况几乎完全不同。

互联网最可能的发展道路就是, 通过向一种能力——自命不凡的革新者向大规模用户群体展示其天才智慧的能力——施加更多的约束, 但不是彻底消除,从而实现更大的稳定性。在这样的网络上进行的金融交易将会更加值得信赖,但是其用户的商业模式范围将会变得狭窄。附着在互联网上的吸引消费者的硬件将更易于理解并且更易于按照硬件生产商预想的目的使用, 但是它将不允许业余爱好者进行修补。如果这种情况在1994年互联网诞生25周年之前发生, 它的很多先前不寻常的, 但现在成为核心的用途将永远不会被开发出来, 因为构成这些用途之基础的软件将会缺少一个可以向用户展示并被用户接受的操作平台。

珍视互联网创生性特征的人们必须对某种前景——无论这是要实现还是挫败反对那些特征的增长中的力量——进行评价, 以便不需要出现一种极端不同的技术配置。这正是因为未来是不确定的, 那些关注由今日互联网和电脑促进的开放与创新的人们, 面对朝向改变的、无法阻挡的压力, 不应该仅仅寻求或维持一种站不住脚的技术现状, 从而为了完美而牺牲好的东西, 或者说, 为了当下而牺牲未来。相反, 我们应该建立起一些原则, 它们可以削弱一个更加封锁的、技术性未来中最不具吸引力的特征; 还同时承认, 对那些从事信息技术工作的人们来说前所未有而又无法想象的边界很可能成为我们必须对其例外事项进行协商的规则。

尽管这些事务对网络法来说非常重要, 但总的来讲这一内容不在我们研究领域的关注范围之内, 逐渐增进的文献已经尽力对现今互联网中究竟什么是有价值的予以甄别, 它们还将端点开放性排除在所关注的网络开放性之外。承认创生性的互联网的重要和不稳定性对诸多事项中如下一些意义重大: 网络服务供应商 ( ISP) 应当坚定地遵守端对端中立性原则, 在“互联网治理”标题下恰当的关注重点, 围绕数字权利管理系统 ( DRM) 产生的多方面争论, 以及集权国家对互联网进行审查和过滤的前景。

Yochai Benkler, Mark Lemley和Lawrence Lessig等学者, 已经明确表示对保持互联网“开放”问题的关注, 这实际上是将一个几十年前技术上的端对端的争论——其涉及互联网协议设计的简约性——转译成这样一种主张: ISP 应该避免对特别的数据来源或类型区别对待。[11] 这对一个开放的互联网来说很有价值, 但是这种主张实际上代表了某种更深层次的东西: 一种创生性的互联网格( networked grid) 。那些认为从端对端理论中推导出的“网络中立性”极为重要的人们混淆了手段和目的。他们只是关注于“互联网络”, 而忽视了某种特别的网络政策对网络终端设计的影响, 例如个人电脑。这种偏颇关注的结果便是,端对端的政治上的支持者常常是近视的。很多作者似乎假定, 当前的电脑和操作系统架构是安放在一个“开放的”位置上的。如果可以说服他们看到一个更广阔的图景, 他们可能会同意在网络层面上的某种妥协。如果完全忠实于端对端网络的中立性原则且任由其一直持续, 我们的电脑就可能被信息应用设备取代, 或可能经历一场从开放操作平台到封闭社区 ( gated communities) , 再到监狱的转变, 从而创造出一种消费者的信息环境, 其恰恰背叛了最初的端对端理论及其诸原则。

电脑操作系统是应当自由开放还是垄断专有? 这两者之间的诸多差异可能难以反映对互联网未来至关重要的事项。垄断专有的系统可以保持“开放”, 就像很多已经做到的那样, 它们通过允许独立第三方编写替代性程序, 并允许电脑所有者安装这些程序而不要求操作系统提供商进行任何防护。在这个意义上, 关于我们未来电脑体验之争论应当较少关注于像Linux对微软Windows这样的普通战斗, 因为双方按照这种定义都是“开放”的, 而应当较多关注于创生性对非创生性: 这就是要理解哪些操作平台会向第三方创新保持开放, 而哪些不会。

对于那些参与互联网治理讨论的人们来说, 关注域名管理制度同样是不幸的。对于这项互联网图景中微小而日益萎缩的方面来说, 人们在其制度性治理的问题上面耗费了太多的学术努力。[12] 一旦将之同创生能力 ( generativity) 的问题并列, 域名问题几乎微不足道。网络法提出的挑战应该是找到管制的途径(尽管不一定通过直接的国家行为), 管制哪种代码能、哪种不能轻易传播, 并在互联网和电脑的创生性网络上运行, 以免消费者的情感和先前存在的管制压力过早悲惨地终结今天互联网的盛大试验。

新的软件工具可能实现集体管制, 如果它们能够利用互联网上的知识——由那些用过这种代码的用户之经验产生——把新代码的性质告知互联网用户。集体管制还可能牵涉设计新操作系统, 这样的设计将在封锁的与完全开放的电脑之间采取一条中间道路, 比如像允许用户在“安全模式”和“试验模式”之间转换的操作系统, 将那些新的或者可疑的代码列为只适合于在机器的试验区域运行。

换句话说, 对Lessig教授和那些比他在名义上更主张自由的人们来讲, 本文寻求解释为什么划出一条明确的界限——将几乎任何形式的日益增多的互联网管制区别出来——不再可行。那些关心保持互联网行为和编写代码之灵活性的人们, 应当积极地参与到关于网络和电脑架构的变化的争论中来, 以帮助改进而不是忽视这种灵活性带来的问题。这种灵活性如果不加制约, 就会给主流消费者体验网络的方式带来不幸而笨拙的改变。

对于如下三者的理解: 创生能力价值、其过度发展带来的风险, 以及将两者协调起来的可能方式, 很可能使围绕DRM的争论得以复兴。特别是, 尽管没有出现朝向Julie Cohen和Pamela Samuelson教授于20世纪90年代末预计的那种全面封锁的悲惨世界的明显变动,[13] 这种理解承诺向人们展示, 正在改变的状况是如何摇摆消费者的情感从而提高DRM有效性的架构的。这种重新排列需要的不仅仅是一般性地反对禁止规避DRM或者规定了特定的DRM体制的法律,它还需要一种对肯定性的技术政策的眼光, 包括某些关于增加知识财产可控能力的措施, 这种眼光目前尚难出现。

最后, 某些西方世界中很可能用来使电脑为了稳定性的缘故更加驯服的手段, 还可以极大影响世界其他地方的集权国家对互联网的审查和监视的前景。如果电脑技术不适当地被精制或取代而在新代码传播过程中创造出新的控制端点, 这样的技术就可以水平移植到这样的国家中, 这些国家当前正通过封锁网络漏洞而非封锁或取代电脑来使其审查有效。

创生性技术总览

为了强调开放的互联网和电脑的特征与优点, 并且为了助于评价, 明确需要放弃 (或遏止) 何种特征来控制某些过度发展的后果是有助益的。这是为了使这样一种强大的可更改的技术成为主流而造成的后果, 而创生能力是启动信息技术革新轨迹的核心特征。创生能力是指一项由大规模形形色色的、未被协调在一起的用户所推动, 从而产生自发变革的全面能力。由互联网进行联结的电脑网格就是以这样一种完美的创生方式发展的。从一开始, 电脑就被设计成为可以运行由生产商、用户或远程第三方创造的几乎任何程序, 并且使创制这些程序变得相对容易。当这些具有高度适应能力的机器连接到一个几乎没有集中化控制的网络时, 结果便是一个几乎完全向创造和革新迅速传播——由拥有技术的用户向广大不用知道他们如何工作就可以享用这些创新成果的爱好者们传播——的开放的网络。

() 创生性技术的界定

创生能力是以下能力所具有的功能: 技术在各种任务中的杠杆能力 ( ca-pacity for leverage) , 对一系列不同工作的适应能力 ( adaptation ) , 易于掌握( ease of mastery) , 以及容易获得 ( accessibility) 的能力。

1. 杠杆能力。我们的世界充满了有用的事物, 这些事物可以是自然的或人造的, 切实的或无形的。杠杆能力描绘了这些事物使有价值的成就成为可能的程度 (否则这些成就要么不可能, 要么不值得付出努力得到)。拥有很强的杠杆能力的设备或系统的例子包括: 杠杆本身 (就其可以举起物理物体而言),一架带锯机 (可以切割), 一架飞机 (可以从一处飞往另一处), 一张纸 (成为书写语言的载体), 或是一张字母表 (用来构词)。创生性的技术使困难的工作变得简单。一种设备或技术节省的工作越多——比较一下锋利的和钝的小刀——它就越具备创生能力; 它能够成就的种类越广泛——比较一下锋利的瑞士军刀和锋利的普通小刀——它就越具备创生能力。[14]

2. 适应能力。适应能力既是指一种技术的使用不需要改变就可以达到的广度, 也指其可能被改进以拓宽其使用范围的容易程度。某种给定的工具可能拥有很强的杠杆能力, 但其应用范围却很有限。例如, 尽管一架犁头可以栽培很多种类的种子, 其本质目的还是耕种。当用作他途时, 其原有的杠杆能力就会迅速消失, 且它并不容易为了新目标而改进, 比如用犁头来使门一直敞开。这一现象对剑 (假设它们确实难以打造成犁头)、枪、椅子、带锯, 甚至飞机都适用。相反, 用来书写的纸可以作为纸袋用来卷鱼。一项提供数百种不同种类的额外用途的技术, 和那些提供较少用途的技术相比, 其适应能力和创生能力(在其他条件相同时) 都更强。一项工具的适应能力使先前无法预见的目的更好地得到了实现。

3. 易于掌握。一种技术是否易于掌握反映了广大用户使用和适应它的容易程度: 要使用其杠杆能力用于他们关心的事项, 需要掌握多少技能, 无论这项技术是否是为了那些目的设计出来的。一架飞机既不容易驾驶, 也不容易为了新目的而被改造, 这不仅因为就本质而言它不适合除了运输之外的其他用途,也因为进行任何可能的改造所需的技能较高, 且如果人们不当地进行了改造,飞机就有可能承担物理损伤的风险。相反, 纸是易于掌握的: 儿童在进入幼儿园时便可学习如何使用, 无论是在上面画画, 还是折成纸飞机 (其本身也比一架真飞机更容易飞行和改造)。易于掌握还指人们可能采用和改造一种给定技术而无须必然掌握所有可能用途的容易程度。操纵一支铅笔只需一瞬间就可以理解, 并可以用于很多用途, 尽管它可能要求天生的艺术才能和一生的练习才能达到和达·芬奇一样的掌握铅笔的水平。即是说, 铅笔的创生能力的大部分源自于它既对新使用者也对熟练工而言的有用程度。

4. 容易获得。人们越容易开始使用和控制一种技术, 并掌握该种技术的知识, 这种技术就越容易获得。 “容易获得”的障碍可能包括生产和消费此技术的纯粹成本、对其使用 (例如, 是直接服务于政府的利益, 还是帮助私人通过知识产权法垄断技术) 施加的管制和税赋, 以及其生产者为维持稀缺性而使用的保密和混淆措施, 而没有必要完全地依赖一种肯定性的知识财产利益。[15] 经过这样理解“容易获得”的属性, 纸张和犁头就是高度可获得的, 飞机则几乎不可能, 汽车位于它们的中间某处。要学会如何开车可能是容易的, 但汽车很贵, 而且通过展示驾驶技能而获得的驾驶的特权, 可以被政府废止。此外, 考虑到汽车和驾驶的性质, 这种废止并不需要很高的成本就可以有效实施。

5. 回到创生能力。正如这四项标准所定义的, 创生能力随着用户生产新的、有价值的用途的增长而增长, 它们易于传播, 并且反过来成为进一步创新的源泉。在2006年, 就很难鉴别一项技术要比互联网以及依附其上的电脑更具创生性。

() 创生性的个人电脑

现代电脑的创生能力源于硬件与软件的分离。[16] 从早期的计算活动开始,这种分离就很明智, 但并不必要。硬件和软件都由多套基于信息输入产生信息输出的指令组成; 它们的本质区别在于硬件一旦出厂就不易改变。如果生产商拥有足够的有关一台机器会被要求操作的计算任务的知识, 执行这种任务的指令就可以当作硬件嵌入电脑。确实, 模拟加数机 ( analog adding machine) 、电子计算器、 “聪明的”打字机, 或咖啡机里可以在用户选定的时间开始酿造的固件, 它们就是这样“嵌入”的。这些设备都是硬件而非软件。或者, 正如一些人可能会说的, 它们的软件是在硬件之内的。

软件独特的本质和特征在于它允许未经改造的硬件执行新的运算法则, 这排除了将该种运算法则嵌于硬件中这一困难而昂贵的过程。[17] 电脑通过允许用户输入新代码来继承研发型计算机应用硬件与软件分离的传统。即使消费者单独持有该机器, 这种代码也可以下载和使用。因此, 生产商在电脑出厂后可以编写新软件, 而消费者需要知道的仅仅是如何将其载入盒式磁带、磁盘或含有软件的磁带并享受这些硬件带来的好处。(在今天网络互联的环境里, 消费者对这类重新编写的程序不需要采取任何行动。) 更进一步说, 软件对生产商来说开发起来相对容易, 是因为电脑携带着另一个较优的制度性传统: 它们利用操作系统。[18] 操作系统提供了一种更高层次的抽象化, 程序员可以据以执行他/她的运算法则, 这就允许了程序员在设计软件的时候走捷径。[19] 使用内在输入端为重新编写程序的能力提供了适应性, 操作系统则提供了杠杆能力和易于掌握性。

最有重大意义的是, 电脑过去曾经是, 现在仍然是容易获得的。它们被设计出来执行非电脑生产商或操作系统发行商编写的软件, 包括由那些和生产商们没有任何特殊协议的人编写的软件。[20] 早期的电脑生产商不仅发布对可以在他们操作系统上运行的软件进行编写时所必备的文件, 而且还将高水平的编程语言与他们的电脑绑定, 这样用户自己就可以学会编写软件, 在他们自己 (还有潜在的他人的) 电脑上使用。[21] 高水平的编程语言像汽车上自动的而非人工的传动装置: 它们没有使电脑更强大, 但是它们确实使其对更广泛的程序员用户来说更加容易获得。[22] 这种增长的易于获得性使程序员能够生产软件, 否则软件就不会被编写。

由此, 个人电脑可以让其用户自行编程, 此事意义重大。然而, 电脑真正的变革潜能, 作为其全面创生能力的一个结果而得到了充分的理解。

电脑被具有不同的背景和目标的人们运用到很多领域中。早期的操作系统缺乏我们今天视为理所当然的能力, 比如多重任务处理, 但是它们使程序员怀着适度的努力和理解来编写有用的软件成为可能。[23]

编写他们自己的软件, 并认为其适合于一般使用的用户可以在软件行业中挂起小招牌经营, 或者只是与他人分享。一个第三方软件市场由此发展起来,并且见证了一系列参与者。从雇用上千人的商业软件发行商, 到可以使他们的成果得以免费获取的集体协作软件项目, 再到通过在电脑用户杂志上或通过当地电脑用户群体发布广告, 来展示并销售他们的软件的发烧友。[24] 这样的一系列开发人员丰富了各种应用程序的种类, 它们被写出来不仅因为有争议的易于获得性大幅增加了编写代码人员的数量, 而且因为人们编写代码是为了各种不同的原因。发烧友们可能只是为了玩乐, 而其他人却可能出于需要来编写, 他们想要一种应用程序但却没有足够的钱来雇佣一个商业软件开发公司。当然,商业公司也可以向个人用户提供定制的编程服务, 或者可以开发面向更广阔市场的打包软件。

这种多样性很重要, 因为企业通常用来衡量和服务市场对特定应用程序需求的机制可能不会提供足够的洞见来生产每一种有价值的应用程序。这是显而易见的。例如, 一种电子制表软件会对受困于加数机的人十分有用, 但是新应用程序和旧方法之间的差异可能阻止企业认识到前者能更好地完成其他的任务。然而, 电脑却允许多重方式进行新应用程序的创造: 企业可以试图评估市场需求, 然后编写推销一种产品来满足需求。可以替代的是, 有需求的人也可以委托企业编写软件。最后, 一些人自己就可以编写软件。

分散化的软件编写人员中, 其中大多数人并不隶属于电脑生产商, 但却为其生产的电脑编写软件。这种配置后来证明对生产商也有好处, 因为对软件更多的易于获得性增加了电脑及其操作系统的价值。尽管很多用户是业余爱好者,更多的人用电脑几乎是没有预见的特定的目的, 电脑生产商可以向后者吹捧随时使用他们的机器, 而这是由不断增加的可获得的软件支持的。

借用互联网架构的一个比喻, 电脑架构可以被理解为塑造成像的一个沙漏。[25] 电脑操作系统位于沙漏的中间, 大多数进化缓慢是因为专有的操作系统与重要的外在革新隔绝。在电脑沙漏的宽阔底端, 是廉价的、商品化了的硬件。在沙漏宽阔的上端则是应用层, 其中很多电脑革新发生在那里。事实上, 电脑及其操作系统是产品, 而不是服务; 而且尽管这种产品的生命可能被扩展至升级, 比如增加新的物理存储芯片或操作系统升级, 电脑真正的价值却在于其作为一个可以进行进一步革新的平台的易于获得和稳定性, 从包括用户自己在内的各种各样的源头获取和使用应用程序, 因此提高了操作系统完成令人激动的一系列任务的内在能力。[26]

尽管学术领域和商业上都关注操作系统的开放与专有这一争论,[27] 电脑的创生能力却并不依赖于操作系统是免费开放, 还是专有和封闭的, 即是说, 无论操作系统是否可能被终端用户还是第三方软件开发人员修改, 都不会影响其创生能力。像Windows这样封闭的操作系统可以并且已经成为一种高度创生性的技术。 Windows系统是创生性的, 例如, 它的应用编程界面可以使一名程序员启用电脑的任何部分的功能, 还令内部的开发者很容易接触电脑硬件输入端和输出端, 包括扫描器、照相机、监视器和大规模储存器。因此, 几乎任何对Windows工作方式的改变都可以通过放置在应用层的代码进行模仿。[28] 操作系统最重要的品质在于其计算能力和它能完成的无数种任务; 可以被大量的用户获得, 并通过应用软件的创造和交换被适应、分享和使用。如果采用这个衡量标准, 围绕操作系统源代码本身是否应当允许被修改的争论就是次要的了。

封闭但具创生性的操作系统, 主要是微软DOS和其后的微软Windows, 支配了电脑兴起的后半段发展历史, 它们的早期应用程序胜过了其以应用程序为基础的对手们。例如, 尽管起始于一种二战中以录音带为基础的纸质词语处理单元的IBM产品, 精致的词语处理设备[29]已经被使用词语处理软件的电脑所痛击。电脑电子制表软件从未知道一种封闭的、以应用为基础的消费者产品是它的竞争者;[30] 电脑已经证明其可以替代视频游戏机作为游戏平台;[31] 甚至如果电脑被配置成可记录销售和消费者信息, 接受信用卡号码, 以及在零售地点兑换零钱, 点钞机也被允许在电脑上应用。[32]

尽管有硬件和软件生产商过山车式的分裂与整合使个人电脑行业的历史随之改变——产生的突然转变, 但是高创生性的电脑技术和市场结构仍然存在。[33]这些结构及其隐含的意义很可能在不远的未来发生改变。为了理解这些潜在的变化、它们的内涵、为什么它们应该被关注以及通过何种行动来解决。这种行动被设计为使其负面影响最小化, 首先应大致理解类似的、正在进行中的对互联网结构的改变是重要的。正如本部分解释所提醒的, 电脑与互联网之间的界限正变得难以察觉地模糊; 当思考消费者信息技术的未来及其与革新创造的关系时, 认为电脑与互联网是分离的, 这将不再有帮助。

() 创生性的互联网

今天的互联网已经异乎寻常地具有创生性。它可以具有很强的杠杆能力:它的协议解决了数据传输的困难问题, 使之更加廉价地执行网络互联的服务。[34]它适应能力强, 因为它的结点之间互联的基础架构可以通过修正来适应数量众多的应用设备, 从电子邮件和即时通讯到电话和流动视频。[35] 适应能力广泛存在是因为互联网协议依赖于少数几个关于其用途的假定, 以及它能够有效地测量以容纳大量数据和用户。[36] 它易于掌握, 因为它的结构允许用户设计新应用程序, 而无须知道或担心数据路由的复杂性。[37] 它容易获得是因为, 在功能层面, 没有一个需要与之协商连接的中央守门人, 也因为其协议是可以公开获得的, 不受知识产权的限制。[38] 因此, 对于新的软件或服务, 独立于互联网建筑师和服务提供商的程序员们可以提供, 消费者也可以接受。

这种情况是如何发生的呢? 不像联邦快递 ( FedEx) 的网络, 其广泛成功的线下包裹邮递网络最初依赖于冒险资本家的金融支持, 创造出一个有效的物理基础设施, 那些在20世纪60年代和20世纪70年代思考互联网的人们设计了一个网络, 将现存网络修补到一起并且尽量多地从中获取各种用途。[39]

这种网络的设计在1984年研讨会上一篇题为《系统设计中的端对端争论》的论文中得到了最好的阐述。[40] 该文描述到, 互联网缔造者们想要将其设计成沙漏, 在中间是一个简单的、狭窄且变化缓慢的协议, 立基于底端的一个开放的物理运营者群体, 在顶端则是由第三方编写的任何数量的应用程序。互联网沙漏在关键部分反映了电脑的架构, 尽管它是被与那些设计了电脑市场的人们完全不同的建筑师群体构想出来的。网络漠视它运作于其上的物理媒介和它传输的数据的性质, 就像开放的电脑操作系统一样, 可以在“下面”多种物理硬件上面运作, 并且支持来自于“上面”各种源泉的任何数量的应用程序。

《系统设计中的端对端争论》一文的作者描述了作为一个工程学上的事项,为什么保持基本网络操作协议简单化, 并因此在网络终端或至少是接近终端的地方执行希望得到的特征是比较好的。[41] 像“纠正数据传输中的错误”这类特征, 在客户端的应用程序上可以得到最好的执行, 这些应用程序可以检查数据是否已经到达其目的地, 而不是通过在网络链条中间用来传输数据的路由器来完成。[42] 而那些使路由器在网络工作上的方式发生改变的想法——它们试图使路由器更加聪明、更关心它们选择传输的数据——挑战了端对端哲学。

互联网的设计还反映了其创造者的资源局限和知识产权利益, 他们首先是学术研究者和在公司里兼职的工程师。这些个人并没有要求实现一个全球化网络所需要的巨大资源, 也几乎对控制网络或其用户的行为没有兴趣。[43] 使网络运转所需的精力被认为是一项负担; 工程师们更愿意设计优雅而有效的协议,这些协议的成功是由其运转能力来衡量的, 不需要实际成果。为了增长和未来发展而保持选项的开放被认为是明智的,[44] 而对网络资源的滥用却很少引起大家的担心, 因为使用互联网的人就是设计它的人, 一组文化上同质的人被他们想看到网络运转的欲求约束着。

互联网设计者们认识到, 网络中的任意两个节点之间都缺乏持续的连接,[45]他们想以既不会向中央集线器征税, 也不会要求整个网络拓扑做中央化调整的方式向网络中添加附件。[46] 这些约束促成了无状态协议和分组交换 ( packet switching) 。该协议不假定节点会持续连接且认为这些连接没有集中化的可供学习的知识;[47] 而分组交换则把所有的数据打碎为小的、离散的数据包, 允许不同的用户共享一个连接点, 每一个用户都可以发送一个数据片段, 同时还允许其他人的数据通过。这个限制还激发了数据包路由的基础协议。通过它, 网络上的任何数量的路由器——每一个都由不同的实体拥有和管理——都维持着指示数据应该往哪个方向行动的路由表, 而不需要确切知道通往数据的终点的确切路径。[48]

一个为从各个角落出现的革新准备的、有伸缩性的、强劲的操作平台起源于这些技术和社会的基础。两项更为深远的历史发展确保了, 一个易于掌握的互联网同时还会异乎寻常地容易获取。首先, 早期的互联网由主要放置在大学计算机科学系、美国政府研究单位和挑选出来的对前沿的网络研究感兴趣的技术公司的节点组成。[49] 这些研究所为了宽带管理进展和研究者用来通讯和讨论的工具而协力工作。[50] 但是却找不到消费者的应用程序, 直到互联网开始接受商业互联, 而无须要求学术或政府研究的正当性证明, 而且人们普遍被请求加入互联网。[51] 反对商业用途和广泛互联的相关规范被取消这一历史性发展, 已经体现在了美国国家科学基金会的警告中, 即它对运行互联网主干网的贡献被用于非商业目的,[52] 这极大增加了互联网的创生能力。它向一个广泛的, 受商业利益驱使的受众开启了网络互联技术的开发, 提供私人服务的个人公司并没有想到要邀请这些受众, 原初互联网的设计者则没有想到会把他们包括在设计过程中。

另一个历史发展很容易被忽视, 因为回溯看来它似乎不可避免: 即互联网作为电脑连接的网络占了主导地位, 而不是和信息应用设备——电脑击败了它们——相似的专有网络。第一个大规模的消费者电脑网络互联是通过像Com-puServe、 The Source和Prodigy那样自我包含的“围墙花园”网络而发生的。[53]每一个网络将其成员仅仅连接到其他注册的成员那里, 或者连接到通过网络拥有者管理和清除的内容上。例如, 早在1983年, 一个在CompuServe注册的家庭电脑用户可以参与一系列活动——阅读新闻订阅, 发送电子邮件, 在公共布告栏中张贴信息, 参与初级多重玩家游戏 (同样是只能和其他CompuServe用户一起玩) 。[54] 但是每一种活动都是由CompuServe或其正式的合伙人编写代码的。和互联网相比, 这就使得网络的创生能力降低, 较难获得。尽管CompuServe和外界软件程序员、内容提供商达成了某些开发协议,[55] 即使到1994年其服务增长至几乎两百万个用户, 其核心的功能仍然几乎没有变化。[56]

专有服务可以为了特定任务而增加杠杆能力, 它们的技术也适应于很多目标, 并且易于掌握, 但是消费者和外界的人无法容易地修补服务, 这限制了它们的创生能力。[57] 它们更像早期的视频游戏控制台[58]而不是像电脑: 通过对由中央管理允许的个人“字体盒” ( catridges) 的开发允许多功能使用, 然而其进化却很缓慢, 因为潜在的开发者被集中化的对网络服务的控制所延缓或扼杀掉了。

首先接入互联网的电脑是大型主计算机和微型电脑, 它们是典型地在大学计算机科学系中产生的机器。[59] 早期的笔记本电脑接入互联网是通过专业化的非消费者工作站完成, 很多都使用UNIX操作系统。[60] 当互联网扩展并且开始吸引非专家们的参与时, 在消费者手中的数十万台电脑就成为互联网生长的自然资源。[61] 然而, 尽管有潜在的市场, 却没有主流的操作系统生产商或软件开发公司迅速地转向, 将互联网协议兼容性设计到电脑操作系统里面。电脑可以接入“围墙花园”的专有服务, 但是它们在本地使用互联网识别的应用程序的能力就会受到限制。

一名发烧友自己利用电脑的创生能力, 生产并传播缺失的技术链接。 Peter Tattam, 一名Tasmania大学心理学系的雇员, 编写了Trumpet Winsock程序, 它允许运行微软Windows的电脑拥有者同附近ISP 产业运行的服务器实现点对点网络互联。[62] 方便消费者接入互联网允许的应用程序比如Winsock, 加上圆形万维网协议的发展和电脑浏览器来支持它们——一开始它们都是非商业的冒险——标志着专有信息服务的终结和像电子布告栏那样的点对点电话网络互联环境的开始。在意识到 Tattam 软件的流行之后, 微软将 Winsock 的功能绑定在Windows 95后来的版本中。[63]

当电脑用户发现自己正日益可以接近互联网时, 专有的网络运行者和内容提供商抢着重新为他们的商业模式定位, 从封闭的内容转向连接更广阔的互联网。[64] 这些在线服务提供商迅速变成了纯粹的ISP, 他们的用户则可以享受互联网上的应用程序和服务。[65] 像CompuServe的“电子大厅”一类的服务——一种允许外界经销商通过与CompuServe达成协议, 可以向用户出售商品的电子商务服务[66]——在可以向任何上网的人出售物品的个人网站兴起中迷失了自我。

和专有网络的内容提供商相比, 互联网具有的更强的创生能力创造了网络的外部性: 当更多的信息受众逐渐认识互联网时, 有望获取更多的信息资源给予了这些用户充足的理由去开办网上商店, 这反过来又会吸引更多的消费者。分散的第三方可以并且已经为客户和服务商编写即时讯息[67]、网页浏览[68]、电邮交换[69]和互联网搜索[70]。更多的是, 互联网保持着广泛的可获得性:任何人都可以廉价地登入, 他们很快成为互联网上在信息交换能力上和所有其他人相同的一个节点, 只受到带宽的限制。今天, 互联网接入可能是免费的,因为一个人正坐在一张接近一个宽带网用户的公寓的公园长凳上, 该宽带网用户开通了无线网络;[71] 这很大程度上归功于消费者无线路由器的默认设置这一偶然事件。

没有人能专门拥有由此产生的互联网, 但任何人都可以加入。当然, 要加入需要至少一个当前互联网用户的默许, 但是如果一个人在一处被拒绝, 还会有数不清的其他人设法获得这一地位, 商业ISP 也会以商业的速度提供服务。[72]那些想要在互联网上提供服务或者想要连接一个正式的、自我维护的本地网的人——比如说想要把电脑连接到互联网上去的学校——可以找到快速可靠的宽带网接入, 每月只需花费几百美元。[73] 服务质量 ( QoS) ——两个端点之间的不间断的带宽[74]——很难得到保证, 因为互联网不像诸如联邦快递一样的由一方从端点到端点运行的物理分发网络, 它是由很多相异的个体网络组成的。无论如何, 当骨干网已经发展并且当技术革新既降低了带宽要求, 又安排了内容在那些需要它的人附近的时候,[75] 网络已经证明, 甚至在像个人之间的视频和音频传输那些最初失败的领域, 其都是非常有效的。

() 创生性的网格

非商业和商业企业都已经利用开放的电脑和互联网技术开发出了多种多样的互联网应用程序和服务, 其中很多在发布后的几个月甚至几天内就变得很流行 (或是臭名昭著) 。 Yahoo!, Amazon. com, eBay, flickr, the Drudge Report, CNN. com, Wikipedia, MySpace: 即便只是少部分网站和应用程序为大部分的用户提供线上活动, 这串互联网上可得的服务和相关活动的名单也有成百上千个。[76] 有些例如CNN. com的网站, 就是现有制度下的在线实例; 其他的网站,从PayPal到Geocities, 则代表了以前未获成功的市场参与者的新冒险行为。尽管很多产生于. com兴盛的年代——大致从1995年到2000年——的产品和服务是不成熟的, 或者没有很好地进行策划, 但如下这点却是事实: 很多大公司,包括以技术为导向的公司, 都长时间地忽视了互联网的潜在能力。[77]

值得注意的是, 近年来通过宽带进行网络连接的电脑数量激增。[78] 创生性的电脑已经变得和创生性的互联网纠结在一起, 整体目前要比部分的总和强大得多。一个经常在线的数量众多的电脑群体意味着, 对很多任务的处理能力, 从很难的数学运算到迅速且巨大的文件传输, 可以在成百上千、甚至数百万台电脑中分配。[79] 同样, 这还意味着很多曾经需要躺在一台电脑中可为他人方便地访问的信息——文件、电子邮件、照片和类似的东西——可以改为存在互联网上的某个地方。[80] 用户可能需要运行的应用程序也可以如此。

这个还在持续涌现的“创生性的网络”扩展了信息技术杠杆能力、适应能力和易于获得性的边界。它还为网络法方案的出台增加了筹码, 因为这条创新的曲线斜面 (增加速度) 可能很快就会被某些因素所制约, 而正是这些因素起初使之倾斜的。这样的约束之所以会出现, 是因为在当前的秩序环境中, 创生能力是脆弱的。这一事实表明数百万机器连接到可以在几秒之内进行重新编程的网络上, 这意味着那些电脑正面临着几乎可以是瞬间的改变。这种创生能力使出版商容易受到最新的知识产权侵权工具的攻击, 这些工具被设计得更加聪明, 可以躲避监控, 并且在瞬间就可以到处下载安装。它还使电脑病毒制造大规模感染成为可能, 这些病毒利用用户的疏忽大意或者安全漏洞,允许网络代码在未经拥有者同意的情况下在电脑上运行。要支撑这些脆弱性就要求在网络的某些方面进行实质性的改变, 这些改变一定会影响到当前创生能力的水平。面对这种可能发生的变化, 我们的眼光不能如此狭隘, 不能仅仅维持端对端的中立性, 或是专注于如域名和信息记录程序 ( cookies) 这些相对琐碎的领域。我们应该认识到网格的真正价值, 即它高度的创生能力。我们还应该认识到它的漏洞的广度, 以及消除这些漏洞结果和影响。这使我们认识到, 我们应该仔细地研究改革措施, 在对创生能力影响最小的范围内解决这些漏洞问题。

创生性的不满

创生性互联网的反对者主张一种截然不同的、能够管制的互联网, 这也是内容提供商和其他反对者努力尝试过但最终失败的互联网状态。为了理解这股反对创生性互联网的力量, 就必须首先认清三个强大的群体, 它们可能在寻找低创生性网格上有共同的目的: 政府管制者 (部分管制者受到包括内容提供商等经济利益受到威胁的群体的驱使)、成熟的技术产业参与者以及消费者。这些群体并没有在技术政策上结成联盟, 而且最近, 三个群体中都出现了主张重新塑造互联网和电脑架构并努力推动这一变革的支持者, 这将严重限制互联网的创生能力。

() 创生性的均衡

网络法学界已经发展出三股不同的趋势。首先, 早期检视法律冲突的工作,常常在发布司法意见时进行描述, 这种冲突源自于使用包括互联网在内的电脑和数字网络。[81] 学者们将成文法或普通法学说运用到此类冲突中, 有时又回过头来讨论新环境是否需要一套新的法律方法。[82] 通常答案是他们并没有这样做:这些学者们大多相信, 创造性地运用既有学说, 无论直接应用还是通过类比,可以解决大部分问题。像David Johnson和David Post这样的教授不同意这种观点, 他们形成了另一股趋势, 认为网络空间是不同的, 因此最好应该由它自己的一套规则进行管理, 而不是由拥有领土的政府的法律来进行。[83]

在20世纪90年代末, 领军第三股趋势的Lessig教授和其他人认为网络法讨论的范围太过狭窄了。 Lessig教授指出, 证明网络法已成为一个独特的领域的观点是正当的, 技术就像法律一样, 能够微妙而深远地影响人的行为方式:“代码就是法律。”[84] 他坚持, 网络法的真正目标是, 既要纠正那种普遍的认为互联网永远不会被管制的错觉, 也要重塑学理上的争论范围, 使之成为更广泛的政策导向的争论, 去追问何种水平的管制可以恰当地建入电子架构中。就Lessig教授来说, 政策制定者应该避免通过代码来行使管制权力, 这种权力是他们常常未能意识到的。[85]

代码即法律的观点成了一个强有力的理论, 但是其最令人困惑的经验性预测——关于使用代码限制个人自由的预测——尚未发生。 Julie Cohen和Pamela Samuelson等教授的著作回应了Lessig教授对技术可以不适当地约束个人行为的方式感到的恐惧——包括一整套明显的关于不受社会欢迎的数字权利管理系统和“可信任系统” ( trusted system) 的担忧。[86]

可信任系统是指那些可以被局外人信任以对抗使用者的系统。[87] 在消费者信息技术的语境下, 该系统被描述为“版权管理系统”或“权利管理系统”尽管该术语已经超载了。正如批评观点所指出的, 这些系统承担的保护职责并不需要和美国版权法授予的权利有任何特别关系。[88] 相反, 对一名用户能做什么的技术限制是由设计者们自己决定的, 因此设计者可能 (并且常常是这样) 禁止了许多其他合法的用途。比如阅读一本电子书, 权利管理系统可能会限制其打印出来的次数。如果用户发现了如何规避这种限制, 就不能进行合理使用抗辩。同样, 订阅通过版权管理系统传送的电子材料的图书馆可能会发现, 自己在技术上无法像传统的图书馆那样借出该材料, 即使出借的行为按照“首次销售”学说来讲是一项特权, 一项针对侵犯版权并进行非法“传播”的抗辩。[89]

在美国, 围绕技术上可执行的“私人的”版权体制的争论在《千年数字版权法》 ( DMCA)[90] 颁布之后不断增多, 它带有大量复杂的反规避条款[91]。这些条款意在支持私人权利管理系统, 并为违反这些系统提供了政府制裁。对那些使用、出售或运输为规避侵犯版权的技术障碍而设计的技术的人, 它们提供了刑事和民事方面的惩罚。它们还惩罚那些仅仅是“接触”这样材料的人, 这项权利并没有保留给版权所有人。[92] 例如, 如果一本书的一边有一个投币口, 要求读者投入硬币才能阅读, 一个发现如何不用投币就可以打开阅读的人就可能违反反规避条款——即使他并没有直接侵犯版权的排他性权利。

这就是对应用到互联网和电脑中的“代码即法律”这一规则最主要的恐惧: 技术壁垒阻止人们使用智识作品, 几乎任何对那些壁垒的破坏, 即使为了合法使用, 也是非法的。但是这些恐惧很大程度上还只是假设。当然, 自从DMCA通过以来, 很多不显眼的权利管理系统已经得到了广泛使用。[93] 然而只有一小撮案件被提起以反对那些破坏该系统的人,[94] 并且消费者复制电子作品的能力几乎没有任何减少, 无论这是为了合理使用还是进行盗版侵权。历史上程序员们一直有能力打碎几乎每一种电脑保护系统, 而那些较少有技术倾向的人就会有不用打碎系统就能产生一种新的电子作品的麻烦, 比如说, 通过录制电视节目或一首歌曲来探索“模拟漏洞” ( analog hole) 。[95] 一旦一套不受保护的副本产生, 它随后就可以按照用户的指令, 在电脑中的互联网文档共享网络里被免费地分享。[96]

因此, 20世纪90年代中期出现的, 对通过可信任系统实现数字加密的担忧是肤浅和片面的。实际上, 任何企图保护原有内容和程序的技术方案都会被迅速侵入, 这种侵入 (或被保护的内容) 反过来又发现自己被技术上不熟练的电脑用户分享。作为替代, 模拟漏洞可以被用来创造出新的、不受保护的主副本。这仍然是事实: 只要代码可以由任何人自由地编写, 并易于在电脑平台上运行, 可信任系统就不过是缓冲路拱 ( speed bumps) 或是天鹅绒绳索 ( velvet ropes) , 但若其成了公众规避的障碍, 就不仅仅是带来不便这么简单了。苹果公司的iTunes音乐商店就是这种现象的很好的例子: 通过iTunes购买的音乐光碟用苹果专有系统进行了加密,[97] 使用它们就有一些限制, 尽管大多数消费者并没有注意, 但它们被设计成防止通过P2P 网络进行即刻散播光碟内容。[98] 但是该系统很容易被规避: 从商店里买回音乐, 将其烧录到一张标准音轨的CD上, 然后再将CD 重新录制为一种不受保护的格式, 比如MP3。[99]

来自于网络法学界第三股趋势, 即坚持“代码即法律”。该项重要的主张一直以来都存在。 Samuelson、 Lessig和Cohen正确地对丧失如下能力的可能性提出了警告: 匿名阅读、借给朋友受到版权保护的作品, 以及对仅仅是允许浏览的加密材料进行合理使用。然而, 第二种学界趋势, 包括由Johnson和David Post教授提出的关于互联网独立论的经验主张, 似乎揭示了第三股趋势的关切是不成熟的。尽管存在对管制和封闭的担忧, 互联网和电脑对主流用户——他们在线下的世界中受到管制, 但是希望在线上世界中摆脱它——来说在很大程度上是不受管制的, 无论是赌博、获取非法色情文学, 还是复制版权保护的材料。

第一股趋势, 支持不断增加对新技术的学说适用, 解释了互联网管制者是如何在事实上以较轻的举动行事的, 即使他们本来可能会有更严厉的选择。正如我在其他地方讨论过的, 在西方世界中, 互联网管制的历史是不确定的和受到约束的, 灵活的互联网管制者对监守 ( gatekeeping) 体制一直很关注, 这是通过某一主权管辖之内个别的第三方或是修改技术构架的方式发挥作用的。[100]尽管互联网管制者很强大, 因为他们能够塑造、运用和强制推行政府的权威,但是其中很多管制者却证明其愿意放弃主要的介入。

尽管主流的监管方式扩大了使用互联网所可能威胁到的利益的规模, 但缺乏干预这一问题仍然存在且持续着。到2001年, 围绕互联网的成功而出现的敬畏与庆祝的喧嚣, 包括由. com导致的股市评估的攀升, 都淹没了很多关于互联网用途和改革的反对和讨论, 谁会想要打扰一只下金蛋的鹅呢? 而且, 很多人把互联网视为是不可改变的, 认为其产生的问题应该逐一解决, 而没有考虑网络运行方式的变化——一种“实然—应然 ( is-ism) ”的形式, 这是Lessig教授第三股潮流在20世纪90年代末的著名挑战, 即使他赞成认为互联网技术本质上仍然是不受管制和约束的。[101]

到2002年, . com留下的问题已经全面暴露, 形成了一种对互联网价值看法更加狭隘的社会背景。对消费者宽带的吸收, 连同像文档共享服务的Nap-ster——由业余爱好者开发但是繁荣时期受到了几百万美元的资助——那样的有创造性但引起混乱的应用程序, 激起了内容提供商的恐惧与怀疑, 而不是嫉妒和模仿。很多控告这种技术的法律诉讼, 在互联网波动的高峰时出现, 在这个时间之前已经导致了对其制作者不利的判决。[102] 内容提供商遭受的困扰已经提供了一个理解创生性互联网缓慢反弹之趋势的自然起点, 它们适时地警醒着一大群网络法学者。但是出版商问题的持续与. com的兴盛并没有说服监管者或法院对互联网的创生能力作根本修补。西方世界ISP 的治安与防止不希望发生的活动的职责相对而言还是很轻的, 即使在像《千年数字版权法》和最高法院在Metro-Goldwyn-Mayer Studios Inc. v. Grokster, Ltd. [103]中对文档共享的支持者做出了不利的判决之后也是如此。尽管在像沙特阿拉伯这样的国家里有更多的管制,那里的ISP被指派审查政府认为反感的内容和服务,[104] 但是管制的努力仍然是如下规则的例外: 哪里有互联网, 哪里就有用户的自由行动。

通过吸收创生性互联网带来的, 伴随着管制者相对温和反应的破坏轨迹,前述三股竞争的网络法学界趋势可以整合在一起说明互联网的道路: 封锁的电脑是可能的, 但却是不受欢迎的。管制者不愿意采侵入手段封锁创生性的电脑,也并没有试图在某种意义重大的程度上修剪互联网相应的创生性特征。互联网的生长使得管制者关心的潜在性问题更加细致了。尽管他们不愿意引起改变,管制者将会欢迎、甚至鼓励一种较少异常且较多管制的电脑/互联网网格。

() 脆弱的创生能力: 网络安全的支柱

主流企业和个人现在都使用互联网。其中一些主要用它来加强网络的创生能力, 无论是创制新技术还是新的艺术形式和其他由该种技术实现的表达方式。其他人则消费网上的智识作品, 无论是创生性地开发出来的, 还是仅仅从传统的传播渠道获取新闻和诸如CD、 DVD、收音机广播与电视节目一样的娱乐节目。还有一些人, 他们上网主要为了非表达性的事项, 比如购物或出售, 他们更希望技术运作简易且稳定。

消费者们手中把持着未来互联网权力平衡的钥匙。他们是强大的, 因为他们驱策着市场并且很多人投票。如果他们对互联网创生能力的特征保持满意——继续购买使这种特征成为可能的硬件和软件, 继续成为提供总体上没有过滤的互联网接入的ISP用户——那么希望约束互联网的政府管制和企业界的力量就会继续受到制约, 创生性的平衡状态就会持续。相反地, 如果消费者改变了看法, 不仅可以忍受封锁的互联网, 而且完全欣然接受, 那么对创生性革新有利的竞争者们之间的利益平衡就会发生倾斜。这样一种转变已经并且将继续被一种尚未被关注的现象所推动: 内在于创生性互联网安全的脆弱性, 而这种互联网正由主流的拥有强大电脑的消费者所占据。

人们通常认为, 第二部分描述的互联网节点的开放性、非集中化以及对等性对网络社会贡献极大, 因为没有中心的网络将没有可损坏的中心。但是这些特征也产生了脆弱性, 特别是联网机器中的缺陷和用户缺乏专业技能这两者结合在一起的时候。已经有一些个人注意到了这一点, 但大多数人却仍然在忽视它。非中心化的互联网并不完全适合于集体行动, 它的漏洞一般被认为是重要却并不紧迫的弱点。即便行动责任的核心在这样一种混乱的配置中很难找到,也很难阻止互联网以集中的方式处理这些漏洞问题。

1. 未被回答和实现的威胁

1988年11月2日傍晚, 一名叫Robert Tappan Morris的康奈尔大学研究生通过互联网从康奈尔大学向麻省理工学院发送了一个小软件。[105] 那时, 很少有电脑联网, 相反, 互联网是研究所拥有的主计算机、小型电脑和专业的计算机工作站们的领地。[106] Morris的软件在MIT的机器上运行的时候, 其同时也在物色网上其他临近的电脑, 然后就企图想要登入那些机器。[107]

这种软件被称作 “病毒”或 “蠕虫”, 它可以独立地发送自己, 且其唯一的目的就是繁殖, 后通过推测用户密码或发现已知的安全缺陷来尝试侵入每一台感染的电脑。[108] 它成功了。到第二天早上, 已经有大量的联网电脑处于接近瘫痪的状态。其中每一台机器都运行了与加州大学伯克利分校免费提供的易受伤害的Unix软件类似的软件程序。[109] 估计有1000到6000台电脑受到了影响。[110]

此后的一两天内, 迷惘的网络管理员们对蠕虫病毒进行了反向解构。[111] 它的繁殖方式被发现了, 伯克利分校计算机科学系给脆弱的Unix系统增添了补丁。[112] 这些补丁可以从网上获得, 为那些没有因为惧怕重新感染病毒而选择不再上网的用户提供了一定的保障。[113] 之后, 蠕虫病毒的制造者Morris被追踪到,他道了歉, 但同时, 因之而提起的刑事指控导致他被判处3年缓刑、 400小时的社区服务以及10050美元的罚款。[114]

Morris蠕虫病毒是一个转折性事件, 因为它是第一个在连接经常开启的电脑的开放网络上散播的病毒。尽管当Morris的蠕虫病毒传播的时候, 信息技术图景很小, 电脑数量也较少, 但一个人需要知道的所有有关互联网和电脑的安全风险几乎都包含在这个故事中了。自1988年的Morris蠕虫病毒事件以来, 尽管如今的计算机技术大大提高, 互联网规模大大增加, 对其的控制也较为宽松,但对安全漏洞的处理方式并没有得到重大改善。

1988年联网的电脑们很可能会受到损害, 因为它们是通用机器, 局外人可以很熟练地掌握其操作系统, 还可以编写可执行的代码。这些电脑强大到足以运行多重应用程序, 允许多重用户同时使用。[115] 它们是创生性的。当第一台电脑被损坏时, 它们能够满足蠕虫和常规用户的双重需要, 因此在人力干预发生之前就为蠕虫繁殖节约了时间。[116] 机器上运行的操作系统和其他软件并不完美,它们有比其设计者设想的更容易被侵入的创生性缺陷。[117] 更重要的是, 即使没有这种缺陷, 电脑也被设计为可以远程操作、接收并运行从别处发来的软件的机器。即使在没有用户使用的时候, 它们也不断被驱动并连接至互联网。这些电脑的用户对可以获得的、能够修补已知漏洞的程序并不关心——他们经常机械性地认为密码足以保护自己的电脑账户。[118]

这类使我们的网络生活极具脆弱性的事件, 在今天依然存在。而且它们都有着显著的特征, 即自1988年以来, 真正具有破坏性的安全事件很少再次发生。值得注意的是, 一个为在学术机构和政府研究人员之间建立通讯而设计的网络, 在20世纪90年代完美地扩张成拥有几亿新用户的庞大网络, 这是最令人印象深刻的伟绩, 特别是考虑到相对于1998年的群体, 现在大多数新用户在技术上是多么外行的时候。无论不加注意的网络管理员们在1988年有多么好的安全意识, 20世纪90年代的主流消费者的情形更加恶化。很少有人知道如何管理或为自己的电脑设置密码, 知道如何正确使用补丁或者留心电脑密码安全状况的人就更少了。

尽管经过一段时间的深入探索, 网络工程师和政府官员们仍然没有采取任何意义重大的预防行动来阻止其他类似Morris蠕虫的病毒。虽然很多反思Mor-ris蠕虫病毒的人抓住了它所预示的问题, 但该问题却不容易解决, 因为互联网和联网电脑的管理是如此分散, 并且因为任何真正有效的解决方式都恰恰会灼烧互联网的目标。[119]

蠕虫病毒并没有像其字面上形容的那样“感染”互联网本身, 因为它并没有对互联网各种分散的路由机制和相应连接进行重新编程。它给网络带来的负担仅仅是增加了网络通信时的流量, 因为当蠕虫试图无止境地传播时, 会迫使所有的联网电脑相互通讯。[120] 受到感染的电脑是由不同的群体或个人进行管理的, 他们没有义务向特定的机构报告他们使用电脑或受感染的情况。[121] 这些特征致使忽视了网络协议和操作管理的人们认为, 蠕虫不是他们的问题。

相反, 关心互联网协议的工程师们对Morris蠕虫病毒做出了回应, 他们建议的妥善的解决方法是: 编写代码的人要更加专业。互联网工程任务组 ( Inter-net Engineering Task Force) ——一个长期被抛弃的、没有组织的工程师群体,他们围绕互联网标准展开工作并且通过一系列正式的“请求注解”文件( RFC) 界定自己的协议——出版了通知性的RFC1135号文件, 以此作为对蠕虫事件的事后反思。[122] 在描述蠕虫的技术细节之后, RFC关注的是“计算机伦理” , 以及向如Morris这样的年轻的计算机科学家们灌输并要求他们遵守伦理标准。[123]

现在看来, 1988年的情况是, 大家承认了蠕虫事件的严重性, 同时极力避免由此而产生的对互联网结构的过度反应。该事件导致的最具体的结果便是对Morris的刑事指控, 这使互联网技术群体达成了明显的共识, 他们认为该问题属于个人责任。国防部还建立了CERT协调中心来监控互联网的健康状况和有可能威胁安全的零散消息[124], 而将事前预防和救济的行动权交给以个体为单位的电脑使用者。

和连接在1988年的互联网上的电脑相比, 第二部分描述过的连接在20世纪80年代专有的消费者网络上的电脑就没有这种根本上的脆弱性, 因为专有网络能够更容易地将特定的安全威胁排除出去而不用牺牲它们存在的基础。[125] 例如, 尽管CompuServe是资源密集的, 但它可以试图在指定的网关对其网络交通进行扫描, 来防止蠕虫散播。更重要的是, 没有蠕虫能以Morris的方式散播到CompuServe的网络中, 因为连接到CompuServe上的电脑被配置成纯粹的“聋子终端” : 它们和CompuServe交换数据而不是可执行的文档, 因此并不运行来自CompuServe网络的软件。而且, CompuServe中与这些“聋子终端”通信的大型计算机能够保证使用者和程序员之间的界限受监控, 且可以通过电子技术加以执行。[126]

像CompuServe一样, 美国20世纪70年代的长途电话网络意在以电话交谈而非代码的形式在用户之间传输数据。在20世纪70年代早期, 一些对电话网络工作方式好奇的用户发现, 电话线使用一种频率为2600赫兹的声音来表达它们没有被占用。[127] 同样的, 有一种购买Cap'n Crunch麦圈时附送的玩具口哨, 当盖住一个口的时候, 可以发出与电话线的闲时频率一模一样的声音。[128] 知道这种方法的人可以用家庭电话拨打免费的电话、利用口哨伪装但并不断开线路,然后再拨打一个新的非免费号码, 这样就能够不用付费而进行连接了。[129] 当这种有想象力的方式出现的时候, 美国电话电报公司 ( AT쏠T) 重新设置了网络,这样2600赫兹的声音就不能控制它了。[130] 事实上, 整个关于波段内信号的概念都被重置了, 此后控制网络除了需要一定频率的声音外, 还需要其他的东西。为了完成这种重新配置, AT쏠T将网络中的数据和可执行的代码分开——一种自然而然的解决方法, 加强了网络的集中控制结构以及它传输数据的目标, 而不能执行用户的编程操作。

理解AT쏠T长途电话网络和它相应的专有信息服务, 可以揭示昨天的互联网与今天的创生性网络的利弊: 互联网的通讯渠道也正是控制渠道。使互联网如此具有创生能力的是它既能够传输电脑上的可执行代码, 也可以传输电脑用户的数据。这种双重功用允许一个用户读取订阅的新闻, 而允许另一个人创制一种可以聚集新闻订阅的软件程序, 然后向数百万其他用户提供这种软件。如果一个人像AT쏠T或CompuServe那样把数据和可执行代码分开, 这将会使互联网失去创生性的强大力量。

CompuServe的主计算机是服务器, 而消费者的电脑则是客户。在AT쏠T的网络上, 拨打电话的人和接听电话的人都是“客户”, 他们的连接都被中心的交换器系统——服务器——所配置。在昨天和今天的互联网上, 只能循环界定一个服务器: 它是一台可以将自己附在网上并且能够使自己成为别人的主机的电脑——不多不少。[131] 一台创生性的电脑可以用来当作客户端, 也可以变成供他人访问的网站。消费者和程序员之间的界线被自我消解和强化了。

考虑到这种配置, 在Morris蠕虫病毒恐慌之后, 集体行动几乎没有动力就不足为奇了。互联网和其上的电脑分散化、非专有的特性使人们难以对它们的工作方式实施任何结构性的修正。更重要的是, 还不清楚哪种有效的应对措施不会使互联网网络发生急剧的目标改变: 这一想法的弊端非常明显, 以至于它甚至没有被提起讨论。

2. 电脑/网络网格与目前已意识到的威胁

那么在没有重大变革的时候, 互联网在总体上如何避开进一步的攻击呢?这一问题的根本解决方式取决于一系列因素, 每一样因素对今天互联网的情形来说都很有指导意义。

首先, 计算机科学家们是对的, 他们认为破坏性非法侵入不符合当时的道德意识。[132] 纵使Morris蠕虫病毒比其创造者所意图的造成了更大损失, 且对于它实际上造成的所有损失而言, 蠕虫病毒除了自己以外并没有其他装备。一旦蠕虫病毒破坏了一个系统, 那么Morris就能够检测到那个蠕虫病毒并轻而易举地删除多个文档。像Morris蠕虫病毒一样, 20世纪90年代随之而来的大多数的病毒反映了相似的作者局限[133]: 它们只是为了传播得更远而传染。它们造成的损害以清理它们所需的工作量和传播造成的网络流量负担来衡量, 而不是以重新恢复失去的文档或找到被破坏的敏感信息的费用来衡量。[134]

第二, 大学和其他研究所里的网络操作中心成为全职机构, 拥有专业的管理人员, 他们更加注意有规律地更新补丁, 搜寻安全隐患。管理员们携带着传呼机, 时刻准备着在系统被入侵的情况下迅速介入。即使20世纪90年代很多用户开始将不安全的电脑联网, 但总的来说他们大部分使用的也是当时的电话拨号上网, 极大减少了他们的电脑每天面临安全威胁或其他严重问题的时间。

最后, 人们并没有商业动力编写病毒——他们总的说来是写着玩的。因此,没有理由认为, 实质的资源会被应用到创制病毒或使它们特别恶毒上来。[135]

随着用户可获得的个人电脑的功能及联网能力日益强大, 这些提供自然安全防护的因素都被削弱了。当网络变得无处不在时, 普遍的伦理就变得不可行了: 确实, 任何可以找到一台电脑并联网的人都被允许上网。除此以外, 消费者正过渡到一个能够时刻在线的宽带网时代,[136] 他们的电脑更加强大, 因此如果被破坏将造成更多的损害, 而且他们的操作系统也存在数量众多的致命缺陷。更进一步说, 现在很多的病毒和蠕虫都已经有了包括反映潜在商业动机在内的自生目的, 而不再只是单纯的传播。这也使得这一现象变得十分普遍: 病毒能够破坏一台电脑, 并使它接受随后的指令, 比如命令它成为自己的互联网邮件中心, 向从硬盘中得到的电子邮件地址发送垃圾邮件, 或者进行网页搜索以便参与广告欺诈, 而电脑的主人却对整个过程丝毫不知情。在2003年秋季进行的一场著名的试验中, 一位研究人员将模拟运行“开放代理服务器”——这在网络邮件服务器中非常普遍——的电脑连接上网。[137] 在十小时内, 垃圾邮件发送者发现了该电脑, 开始试图通过它发送垃圾邮件。[138] 六十六个小时以后, 该电脑已经记录了229468条信息并试图发给3360181个可能的接收者。[139] (研究人员的电脑假装发送了垃圾邮件, 但实际上将它们删掉了。[140])

CERT协调中心的数据反映了这种巨大的变化。该组织在1988年成立时便开始记录互联网连接系统受攻击的次数, 并将其称为“意外事件”。如图1所示, 1997年以来意外事件呈指数增长, 到2003年几乎每年增加一倍。

1 1988-2003年间CERT/CC接到的安全意外事件报告的数量[141]

CERT于2004年宣布其将不再跟踪记录这个数字, 因为攻击已经变得如此普遍和广泛, 以至于彼此之间无法区别了。[142]

在Morris蠕虫病毒发作的年代, 估计网上有60000 台各异的电脑或“主机” 。[143] 在2005年, 该数量已经超过了3. 53亿,[144] 而全球范围内的电脑估计达9亿台。[145] 这些大量的、总是在线的强大电脑, 很多都配备高速的网络连接, 却由不熟练的用户操作, 这是二十一世纪的新现象。如今的病毒具有高度可传染性, 能够在瞬间发送, 几小时内就能感染全球范围内大量的电脑。[146] 这些症状可能瞬间传输给用户或者潜藏在重新发送的操作指令中, 这取决于病毒创造者的选择。即使没有受到感染的系统也会被影响, 因为病毒传播能够干扰网络连接能力, 且能够通过反复进入而攻击特定网络。在所有被感染的机器上, 这样一种分布式拒绝服务攻击甚至能够干扰连接性能最好和防护能力最好的服务器的连接能力。

设计精妙的蠕虫和病毒通常能够感染大面积的联网电脑。例如, 2004 年Sasser蠕虫在三天内感染了五十多万台电脑。[147] 2003年1月Slammer蠕虫只花了15分钟就感染了90%的微软特别服务器, 使数以万计的电脑陷于瘫痪——。[148]SoBig. F病毒在2003年8月被发布, 并迅速感染了全世界70%的电子邮件, 单单“美国在线” ( America Online) 就收到了2320万封携带病毒的电子邮件。[149]后SoBig. F的威胁消失了, 部分原因是它的制造者对它做出了“在几周后消失”的设定。[150] 如果这些恶意软件[151]有任何一个带有真正的“恶意”, 例如, 被设计成可无限繁殖、清洗硬盘、随机调换电脑中电子表格程序中的数字, 或者间歇在Word文件中添加脏话, 就没有什么安全系统能够经受这样的破坏了。尽管这些例子都发生在运行微软Windows系统的电脑上, 但根本的问题还是在互联网的创生能力上, 而不是在特定生产商的安全缺陷上。无论运行的是 MacOS、Windows还是UNIX, 任何一台能够使其代码在用户不知情的情况下被重新改写的电脑, 都是能够被破坏的。

将能够入侵防火墙和反病毒软件的、设计精妙的蠕虫, 与一个怀有真正恶意的蠕虫制造者结合起来, 只是令人恼怒的病毒传播事件就有可能会产生更严重的影响: 无法在某些航空公司柜台办理登机手续; 无法进行夜间派送和包裹、信件的邮递; 工资软件无法为数百万人计算和生成工资; 或者医药局、学校、市政厅和其他资料存管机构的重要记录被销毁、公布或被邪恶更改。

政府的管理者、网络设计者和网络操作者已经鼓励, 或至少默许了创生性互联网和创生性的计算机的发展。他们已经对很多因信息技术的使用所可能导致的问题做出了基本的回应, 且小心谨慎地在从属责任 ( secondary liability) 体制和架构的授权下尝试消除有害的活动。当这些活动增加的时候, 线上与线下用户的合法利益都会受到损害, 这种约束将在新兴的计算机/互联网网格受到行为控制干预的时候被证实。因此, 第四部分将转向有利于管制的网格, 以及在第二部分中描述的完美的不受控制的创生性增长之后, 该网格是怎样出现的。

大泛滥后的 ( postdiluvian) 互联网

至此我已经描绘了一个具有高度创生能力的电脑和网络结合体, 其组成部分胜过了它们各自在二十世纪八九十年代的对手, 这多亏了它们的强大的能力、灵活性和可以接触到的外部发展。现在, 几千万人拥有了能够随时上线的互联网接入通道, 而且这个数字还在迅速增加。他们可以下载新的软件或享受新的在线服务, 提供软件和服务的开发人员与电脑生产商、操作系统开发商或者ISP间都没有固定的联系或特别协议。这就是正在出现的创生性网格下的状态。尽管管制者有意愿控制个人的不当行为, 技术专家们也希望防止恶意软件破坏相应服务, 但这种创生性的网格似乎仍然没有变化。事实上, 这种外观是欺骗性的: 尽管网格没有变化, 其创生能力却遭到了威胁。

这一部分将描述网络和电脑架构的基本变化, 我认为这很可能发生, 因为这是在强大的管制者和很快意识到安全问题的 (第三部分描述过的) 用户集体施加的压力下驱动或实行的。这些变化很可能否定很多第二部分展示的创生性特征。在第四部分描述这种正在出现的大泛滥后的互联网之后, 第五部分将描述对于它可以采取什么措施。

() 大泛滥后的互联网的诸要素

思考网络的未来将会让我们感知到管理者和用户的需求, 感知到何时这些群体的利益和观点会基本一致, 或者至少不会发生剧烈冲突。

1. 信息应用设备 ( information appliances)

一种“信息应用设备”只能运行那些生产或销售它们的厂商选定的程序。在创生能力的谱系下, 信息应用设备可能拥有电脑的杠杆能力和适应能力, 但是在获得更多的代码方面则受到了严格的限制。

现在已经有好几种互联网识别的主流信息应用设备。一个最主要的例子就是TiVo, 一种数字音像摄录机, 可以连接到用户的网线、卫星或天线来录制电视节目。[152] TiVo还可以连接到电话线或互联网接口上以下载每日节目信息。[153]因此它既是一种产品, 也是一种服务。拥有TiVo的消费者几乎都非常喜爱它,很多人表示如果没有它就不想看电视了。[154]

TiVo的设计者并没有从头开始编写软件, 他们是在高度创生性的 GNU/Linux操作系统上执行该程序的。[155] 大多数TiVo拥有者并没有意识到他们购买了一种形式的电脑。没有迹象表明存在着操作系统——就创生能力来说, 某种向第三方开放的程序。用户使用远程控制与TiVo互动,[156] 使用TiVo的限制也并不容易被规避。[157] 这种限制包括不能创造标准化的数字输出, TiVo的录制程序如果没有TiVo自己的由DRM限制的软件就不能复制到电脑上。[158]

TiVo的工作像传统的应用设备一样可靠, 因为其制造者比大多数电脑生产商都更确切地知道它的用途。这种确信对TiVo及其合作软件生产商是有利的,[159]因为它给予了TiVo对它提供的结合在一起的产品/服务完全的控制权。这对消费者也是有利的, 因为他们发现TiVo有用并值得信赖。它也会令管制者满意,因为TiVo被设计成能够防止加剧点对点问题的形式。如前所述, TiVo摄录的场景只能被保存到标准的VCR或DVD上面, 或者以一种版权受保护的形式, 而不是以一种不受保护的数字化形式保存到消费者的电脑硬盘里, 或是通过互联网传播到任意的地方。[160] 尽管很多消费者毫无疑问会喜欢这种特征, TiVo却可能避免提供该特征, 一部分原因是它和内容提供商有关系,[161] 另一部分是因为害怕版权责任。尽管在历史上对互联网是存在管制的, 在Grokster案下, 为数字音像摄录机——它们允许广泛传播的复制和传输它们录制下来的节目——找到传播者一类的责任是完全可能的, 特别是当这些节目被其发行者注明他们不想让这些节目被广泛分享的时候。[162] TiVo的竞争者ReplayTV的生产商就因为允许这种向任何其他网上的ReplayTV重新传输, 以及因包括一个TiVo没有的自动商业快进功能, 而遭到起诉。[163] ReplayTV 在案件审理结束前就宣告破产。[164]继承它的生产商制造的ReplayTV机器缺乏所有这些特征,[165] 并且TiVo正在实现一种新功能, 可以允许内容传播者将其设置为不会长时间保存自己录制的节目的形式, 从而只允许用户通过调整时间来观看内容 ( time-shifting) , 而不能长时间储存。[166]

TiVo预示着互联网可识别的应用设备的增长, 这些设备探索操作系统和网络的创生能力, 但是它们自己却不会让消费者或其他终端用户使用创生能力。这种缺乏创生能力的表现本身并不是对互联网/电脑网格基本架构的主要改变,但它也许确实补偿了一些失去的、潜在的集体行动能力。那些想去买一台可以当成电视机使用的电脑的消费者, 以及发现它具有在购买时并没有想到过的用途的消费者可能会购买电脑, 否则就会去购买TiVo。反过来, 某些程序员缺少动力创制新的用途, 因为可能从那些用途中受益的用户们已经减少了。确实,就那些依赖于大规模吸引用户以显示其价值的用途来说, 例如在线拍卖, 这些用途将不太可能出现。 TiVo的制造者可能为了和电视无关的活动决定为TiVo制造一个集线器——毕竟, 这是一台电脑的底部基础, 且越来越多地访问互联网——但是这种发展必须以在专有的CompuServe服务上开发新软件为基础, 需在公司自身的倡议下, 或者通过和第三方软件开发者协商进行交易。当然, TiVo的制造者可以选择更新机器, 以便能够运行第三方开发的应用程序。在最近几个月中, TiVo在这个方面采取了非常有限的措施, 开放了一种软件开发者的设备, 它可以允许TiVo用户连接到一台电脑或服务器上, 以有限的方式进行互动——这实质上是在TiVo的功能上添加了一个网络浏览器, 而不允许第三方重新为其编码。[167]

类似的形式可以在其他新的信息应用设备那里找到。例如, 智能手机 ( sm-artphone) 是移动电话被设计成能在网上冲浪, 并且处理诸如照相、保持日历和待办事项等非通话业务的升级版机器。[168] 有一些像Palm Treo那样的智能手机,就是基于一般目的的掌上电脑加上通话功能而产生的,[169] 它们可以运行第三方程序, 这可能令其用户很是懊恼, 如果Treo被恶意软件破坏, 他们的服务就要受到干扰。其他的, 包括Cingular公司生产的电话, 运行了Windows的一个版本,[170] 但却被手机运营商加以配置, 他们出售这些机器是为了只能运行特别“签名”的软件: 消费者不能只是双击鼠标就能运行不被手机运营商批准的软件。超越了智能手机的一些信息应用设备和电脑联系更加密切。例如, Xbox是一种微软公司制作的强大的视频游戏控制台。作为一种单一目的的设备, 它能够使用非游戏应用程序, 但是不像在电脑上运行的Windows, 这种非游戏应用程序并不容易获取: 添加的第三方硬件与软件必须得到微软的授权, 而且从中得到的利润的一定比例也必须作为版税同微软分享。[171]

2. 变成应用设备的电脑

个人电脑正朝着这些信息应用设备的方向发展。作为一种对来自病毒和蠕虫的威胁的自然反应, 操作系统制造商已经采取的第一步是, 在用户第一次运行陌生代码的时候警告他们。用户们会发现, 点击可执行的电子邮件附件或者下载恶意软件, 或只是访问错误的网站就会破坏他们的电脑。当用户试图运行“陌生”的软件时——即那些未取得微软承认的数字认证证书的软件——微软的Windows就会显示一个安全警告。[172] 在最新的Windows版本 ( Windows XP )中, 当用户试图运行这样一种陌生的程序时, 或者当他试图自动执行程序——也许是在访问一个网站的时候——用户就会看到一个警告: “发行者无法认证。您确定想要运行该软件吗?”

很多情况下用户不知道如何理性回答这个问题。除非他当时并不希望运行任何软件, 否则他只知道, 只要软件能用, 他就想运行。除非用户试着运行该软件, 否则他怎么知道软件是不是好用呢? 通常情况下, 他都会假定电脑应该比他更清楚答案, 然后就发现自己对完美的软件说“不”了。

让消费者选择的解决方式由此就成了对付他们无意下载的有害程序的万能钥匙。对点击带有病毒的电子邮件感到好奇的消费者很可能不会被一个警告框吓住, 特别是当运行一种只是没有签名的无恶意软件时警告框频繁出现。更多时候, 一个签名单独没有什么含义: 人们可以将软件签上“唐老鸭”之类的名字。[173] 用户根本不能确定什么软件是好的, 什么软件是有问题的。当无法有效解决这种基本的、脆弱的创生能力的问题时, 一个电子软件签名的架构就会使电脑看护人更容易把它们变成应用设备。公司可以很容易地把雇员的电脑配置成只能运行允许的软件; 图书馆、学校和父母也能够这样做。这不仅会屏蔽不受欢迎的内容, 而且还会锁住电脑以防止某些积极的用途, 即使并没有被电脑看护人明确地批准。

对于那些自己购买电脑并希望不受病毒经常性侵犯的人来说, 保卫安全的下一步, 不应只是普通而无效的警告, 而应该有更具体的建议: 操作系统制造者认为该软件应该运行么? 软件发行商可以提供一个回答这类问题的框架。微软长期以来一直为设备驱动程序这样的软件维护着一个数字签名程序, 它控制操作系统与某些外部计算机设备 (如打印机, 扫描仪和摄像头) 之间的交互。[174]第三方经销商可以编写他们自己的驱动程序而不加签名, 他们可以自己主动签名, 或者将软件提交给微软批准。在第三种情况中, 微软对驱动程序进行测试,如果通过测试就为它们签名, 就像当作批准使用一样。[175]

在某些方面, 这种测试和批准对消费者来说是一种积极的发展方向。电脑使用者常常会发现自己的电脑感染了病毒, 并且因这种感染不在电脑生产商或操作系统经销商的保修范围内而感到困惑。操作系统经销商可以通过承诺给予某种形式的协助来解决这一问题, 只要消费者把电脑设置成不运行未签名或未批准的软件即可。像微软这样的操作系统生产商还能因此获利, 因为它在提供这种有附加值的服务方面有独特的地位, 即它对每一种在它的机器上运行的软件都拥有一级 ( first order) 监守能力。就像它对Xbox那样的信息应用设备所做的那样,[176] 微软可以决定在批准第三方软件的时候收取一定的费用, 在它对这类简短的、未正式陈述进行审查或做出拒绝的决定时, 可向“每一笔使用微软技术进行的网上交易”收取“抽头” ( a “ vig” ) 或一定的税。[177] 或者, 操作系统生产商可以免费批准, 或作为最主要的生产商, 通过确保某种最低限度的质量控制而获取用户进行电脑体验后的有益反馈。一个独立的软件制造者可能因得不到这样一个批准而恼怒, 但是当用户接受旨在阻止陌生软件的默认设置时,该制造者可以选择放弃批准并减少运行其软件的电脑的数量。

为了理解这些潜在解决方案的含义, 以及它们会带来麻烦的原因, 把这种发展中的架构与操作系统中另一个可能出现的 (因为网络无处不在而带来的)新特征——自动更新一并讨论是有益的。[178] 这种新特征出现在最新的微软和苹果公司的操作系统中, 也出现在许多单独的软件中, 它解释了这一事实: 越来越多的电脑拥有能够即时在线的宽带互联网。从电脑第一次连入互联网的那一刻起, 此种特征就便通过某种软件得以展现。包括Windows XP在内的其他操作系统虽然事先关闭了这一功能, 但是电脑会提示用户将其开启。[179] 通过自动更新, 计算机定期 (通常是每天) 检查来自操作系统发行商和装在电脑软件制造者的更新。乍一看, 这种功能是无害的, 它在可以下载的时候利用了电脑的网络能力和适应能力来获取最新的安全补丁, 因为这并不依赖于消费者的小心谨慎。这种发展解决了早在1988年就被注意的消费者维护安全的问题, 那是在Morris蠕虫病毒事件期间, 当时许多电脑缺陷都没有补丁。

到现在为止, 苹果和微软公司只自动安装和安全相关的、他们认为是“关键的”更新; 对于操作系统“常规的”功能或辅助的应用程序的更新仍然需要消费者的同意。很多其他单个软件的制作者更加自由地使用自动更新, 而且对于他们可以影响的电脑进行何种改变并没有技术限制。他们不仅能为自己更新,也会使用这种功能下载其他人制作的软件的小补丁, 安装整个新的软件, 升级操作系统, 或者删除安装的软件。因此, 自动更新带来的安全收益可能也无法证明它带来的新的脆弱性是正当的, 特别是对于那些不为人所知的软件制作者们来讲, 更新这些软件的服务器比起由操作系统生产商运行的糟糕版本, 可能更容易被第三方破坏。但是无论它是否解决了对安全的关注, 自动更新都开启了通向完全改变互联网网络运行方式的大门。

通过自动更新, 操作系统和其应用程序变成了服务而不是产品。这种转变对软件生产商很有吸引力, 他们可以请求或要求消费者订制常规更新, 就像那些购买了反病毒软件的人在一年限期后被要求每年都订制病毒定义库更新一样。更进一步说, 这种更新有助于减少盗版软件: 如果一名消费者的软件或操作系统并未生效,生产商可以远程使软件失效, 或者如果没有适当更新的话能够调成停止运行。[180]

自动更新和应用设备化是一致的, 都允许生产商发现——当他们的软件被入侵或改编的时候——和关闭或卸载原始操作系统——当他们确实被攻击或改编的时候。 Hughes DirecTV 卫星接收器信息应用设备就是这样。就在2001年超级杯赛之前, 侵入了他们的DirecTV接收器来接收智能卡接入的消费者们发现他们的接收器突然不再工作了: 卫星已经不仅播放人们收看的节目, 也播放让接收器遵守的节目。[181] 接收器检查特定的侵入, 如果找到了就自动破坏, 使那些受到影响的智能卡完全失效。据报道, 被侵入的智能卡的最后几个电脑字节被重新改写成读取“游戏结束”。[182]

电脑上自动更新的软件正变得越来越普通, 同时互联网本身则成为高度受控软件的主机。电脑/互联网网格的出现使得开发应用软件的运行变得更加容易, 因为它运行所依靠的是远程服务器而不是电脑本身。一台电脑或者只装有一个网页浏览器的信息应用设备现在可以使用一系列服务——这种发展就是以应用程序流、网络服务和Web 2. 0而闻名的。[183] 一种观点认为, 这种发展对创生能力来说是中性的, 它仅仅改变了创生性软件的核心, 这些软件是编写到一个互联网上的服务器之上的, 而不是写入电脑中——它也许甚至能够避免由封锁电脑导致的创生性方面的损失。然而, 就新颖的P2P 应用程序而言, 这种改变破坏了分散的电脑的处理能力。[184] 它还带有很多但并非所有自动更新的缺陷。从安全的立场看, 在网上某一处的更新服务不可能干涉用户享受另一个提供商在别处提供的服务——这不像电脑应用程序的自动更新, 会危害到并行的电脑程序或干扰电脑的操作状况。但是, 这种服务的隔离也会阻止在其他软件的基础上创制新软件的创生能力。[185] 一些网上主机服务对用户数据保持着标准化的界面, 可以允许外界的开发。例如, Google至今为止已经允许独立的软件开发人员在Google 地图上用他们自己的虚拟的彩头图钉创制“混编” ( mush-ups) 。[186] Google可以随时取消这种促进“混编”的许可, 并关闭相关服务, 这将使独立的创生性应用软件变得停留于想象阶段, 因为失去了基础支撑, 任何针对术语的长期研究或商业开发都是鲁莽的。[187]

() 大泛滥后互联网的内涵: 管制更多, 创生更少

让消费者在有安全缺陷的创生性电脑与更加安全但是受到更多限制的信息应用设备 (或者变成这种设备的电脑) 之间做选择, 这可能会不断低估未来创新的 (因此也是创生性电脑的) 益处。未来创新的益处在目前的价值观下很难被注意到, 很少有消费者会在决定购买电脑时把不曾预想的信息技术创新当作购买因素加以考虑。

从管理者的角度看, 自动更新提出了新的监守机会。更新不仅被生产商用来增加软件的功能性, 也用来减少其功能性, 这在将法律加以考量之时体现得尤为明显。例如, 苹果公司iTunes软件的一个早期版本允许用户们在网上听音乐, 却不允许他们永久地复制音乐。[188] 苹果公司随后认为应对该功能进行优化,在后来的一次自动更新中, 它将iTunes的功能削减至只允许用户收听已存储在本地网上的音乐。[189] 这种能力对于第三部分讨论过的内容管理和侵权问题有相当的隐含意义。在索尼案 ( Sony Corp. of America v. Universal City Studios, Inc. )[190]的年代, 如果VCR被作为帮助侵犯版权的工具, 毫无疑问, 把扣押用户的VCR作为救济措施是很难想象的。但是如果索尼公司可以立刻按照版权拥有者和管理者的指导对用户的VCR进行重新编程, 这样的救济可能更加诱人。类似的启发促使加州地方法院塑造了Napster公司服务的方式, 即通过命令的方式要求该公司从其向用户提供的集中化目录中尽力过滤未获授权的、有版权的文档。[191]

Randal Picker教授把自动更新看成一种信息技术变化的图景, 并建议管理者确实应该进行开发。[192] 例如, 在版权的背景下, 他相信一个将自动更新功能植入以便进行侵权活动的软件制作者应该有“继续设计以减少其非侵权用途的义务” 。[193] 对于那些开始没能植入自动更新的人, Picker教授建议采取一种“困难使用测试”, 以便在不保留编程控制的情况下, 使释放可能侵权的软件的行为具有法律风险。[194] Picker教授的观点已相当直接: 一旦分布式产品的修改变得容易 (在管理者看来), 能够使其减少危害, 那么为什么不鼓励这样的修改呢? 但是Picker教授没能考虑强迫软件生产者保留排他性控制所造成的创生能力损失问题。

举一个当前的例子: 包括iPod在内的MP3播放器正日益被用来播放收音机广播。通过所谓“播卡” ( podcasting) 的行为, MP3的用户为了收听的目的,可以从网上合法地下载很多经过筛选的节目。[195] iTunes的连续播送 ( streaming)特色本来可以对广泛采用播卡作出意义重大的贡献, 因为它本来能够允许人们广泛地分享他们最喜爱的广播节目。但是因为苹果公司收回了这项功能, 其潜在的影响无法预知。尽管苹果收回是自愿的, 许多更加具有创生能力的开发可能会因为合法地强迫限制这种特征而失去。

更糟的是, Picker教授的解决方案将难以应用到群体编写的开源 ( open-source) 软件上。[196] 若不进行仔细设计, 一种对服务性软件有帮助的管制判断会惩罚分散化的开发进程, 这将反过来降低或消除整个信息技术创新的种类。

而且, Picker教授的施加监守责任论辩的逻辑需要立基于一名软件作者自己的产品上。考虑一下如果操作系统制造者对所有在其系统上运行的软件都负有责任的后果吧。例如, DeCSS, 一种可以解码DVD的软件, 已经被发现是符合DMCA的1201条款的一种非法规避工具。[197] 在责任的威胁或直接政府管制下, 微软会毫不费力地向其操作系统消费者发送防止DeCSS运行的更新, 它使用的正是反病毒软件销售商用来监视和消除恶意软件的技术。事实上, 任何带有自动更新定义的反病毒软件销售商都会有这样的压力。

必须承认, 新用途并不总是妨碍我们消除真实的侵权行为。但是, 软件作为服务出现, 将创生性的强大力量从处在信息技术边缘的用户那里移走了, 逐渐移向中心, 移向可以被经销商、管制者和私人诉讼施加影响的专业软件制作者。[198] 如果它会挫败第二部分描述过的“边缘”贡献者的创造力和活力, 那么这种转向将是不幸的。[199]

当网络网格变得足以信赖和足够快, 能够保证将代码从商品化的桌面上移除的时候, 软件提供服务对于市场来说也许是不可避免的。尽管如此, 消费者们可能会不断低估开放式电脑未被预料到的用途, 从而产生某种程度的市场失灵。此外, 互联网与电脑的创生性历史表明, 在我们向软件开发人员施压, 包括进行自动更新并将其用于监管目的之前, 我们应该深思熟虑。

第三股网络法学者, 他们首先提出了对20世纪90年代中期的可信任系统时代关注, 他们预见了若用户的要求超出了植入技术的许可, 则软件会拒绝满足用户的要求。这种软件确实存在, 但是如第三部分说明的, 当在创生性电脑上运行的时候, 它的控制结构是很脆弱的。只要用户能够运行不受制约的软件, 能够使用一个开放网络来获取具有破坏性且被封锁的内容, 可信任系统就只能提供薄弱的保护。例如, 微软的Windows媒体播放器内置了一个强大的权利管理系统, 但是它仍会播放失去权利保护标签的内容。即使它应该停止这样做——而只是播放经过认证的内容——用户仍然能够安装忽略此类限制的第三方播放器。

美国的法律制定者在2002年认识到这个圈套, 并提出了《消费者宽带与数字电视促进法》 ( Consumer Broadband and Digital Television Promotion Act, CBDT-PA)[200]。该法案将设立一个动态过程, 在此过程中技术制造者就会为了减弱数字内容的限制在他们自己中间开发标准, 然后被迫编写遵守那些限制的软件。[201]它将适用于任何“数字媒体设备”, 这是指:

任何满足如下条件的硬件或软件:

( A) 以数字形式复制拥有版权的作品;

( B) 以数字形式将拥有版权的作品转换为可见或可听的图像和声音的形式; 或者

( C) 以数字形式恢复 ( retrieves) 或存取 ( accesses) 拥有版权的作品, 并将这些作品传输或传输给 ( B) 款中所述的硬件或软件。[202]

如果技术制造者不能就某一标准达成协议, FCC就会为他们设立一个标准。[203]

如果CBDTPA通过, 它将会是一次令人惊叹的干预。实际上, 草案非常严厉, 以至于它似乎仅是议员们的警告——实际上并不打算成为法律。但是CB-DTPA的清扫式规定所代表的实质性意义却是真的: 如果可信任系统真的要限制对内容的访问, 开放与封闭就不能并存。 CBDTPA背后的理念并非仅规范软件限制人们行为的方式, 而是规范操作系统限制软件的方式, 而且反过来, 它也规范硬件限制操作系统的方式。

本部分描述的安全与市场驱动现象表明, 技术配置已经实现了CBDTPA的很多目标。与CBDTPA不同的是, 这些现象并非说明要将它们移植到一个充满活力、带有抵抗性的市场上去。实际上, 它们自己就是市场, 代表了很多跨越技术和出版业、政府和消费者的总和。本质上讲, 它们指向编码许可证, 这种许可证是被主流制造者发布的, 但可以被政府塑造。

这样的许可证可能不会很难得到。就像司机的驾照或者整容外科医生的执照一样, 得到它需要基本的训练并满足持有者的身份条件, 编码许可证存在的首要前提是, 软件产品背后有一个可验证的身份。它可以由软件制作者持有,表明其被允许制作新作品, 还可以应用到每一个软件之上, 以便监管机构撤销个别作品的许可。此外, 创作者可以被容易地鉴别出来, 并且要为制作病毒或身份在不作为情形之下被盗而负责。

新的软件编写者可能会发现用户最初对运行他们的软件是持怀疑态度的。就像拍卖网站eBay上的新交易者一样, 新的生产者必须在大胆的消费者中证明自己的价值, 慢慢建立可信赖的声誉。或者, 新生产者可以提交软件用于测试,就像微软要求那些想要使自己的驱动设备得到签名的那种测试; 或是某些智能手机生产商在允许程序在其设备上运行之前需要进行的测试。

若被批准的软件后来助长了不恰当的行为, 政府可以要求操作系统生产商将之视为病毒, 并取消其许可证——甚至取消其制作者的许可证。不同的政府可能对该软件做出不同的判断, 因此其可能会要求操作制造生产商仅在其各自的管辖区内的电脑上阻止违规软件。在像中国这样的国家里, 为了节约资金以及避免被美国操作系统公司所控制, 如果活动内容涉嫌政府管控的过滤性内容,那么进行一场针对像Linux那样的免费操作系统的运动[204]便不需要创生能力来推动。锁定电脑的工具可使用免费或专用的代码, 应用型电脑或者信息应用设备的消费者市场将会使规避审查变得更加困难, 因为第三方代码导致新的、未经过滤的覆盖式网络无法轻易运行。关注创生能力, 而不是关注免费和专有的软件,[205] 揭示出在他处采取的看似无关的安全措施在此处政治审查的涵义。

到目前为止, 本部分已经讨论了为什么消费者、操作系统制造者和管制者可能更加希望一个电脑可以通过某些方式而受到更多限制的世界——这些方式打击了电脑创生能力的核心。必须承认的是, 并没有主张可管制性和创生性之间的任何权衡都应有利于后者的依据。如果我们可以使网络变得更加安全而不牺牲其本质的创生性特征, 这就是一种虚假的二分。在安全问题上取得进步是困难的, 因为互联网的分布式特性和个人电脑的所有权并没有促使参与者将安全的负外部性内化。正如第五部分讨论的那样, 当它们的用户的电脑遭到病毒袭击时, ISP并不负有经济责任。类似的, 如果某一用户受到破坏的机器给别人带来麻烦, 特别是远距离的用户时, 他们可能不会在意。尽管从监管的角度来看, 封锁电脑非常有吸引力, 但这是不可取的, 因为其对创新产生了影响:随着第三方被挤出开发周期, 技术革新将减缓, 且由于一些受阻的技术革新可能会增强有价值的表达活动, 智识上和艺术上的创造也将会减缓。

广泛分布的多用途计算机允许第三方的贡献, 创新套利由此产生, 那些发明或改进信息应用设备缓慢的企业会发现, 自己被投入较少的创业式电脑软件程序员所超越。例如, 由诸如Skype和具有音频功能的即时通讯程序等电脑程序提供的免费互联网电话服务, 成了电话软件提供服务的基准, 后者能够通过无线网络连接到网上打电话, 通过避免使用传统电话网络而节省了费用。如果没有把他们的软件传播到电脑上去的能力, Skype和它的弟兄们背后的创新者就会发现在市场中的发展费用甚高, 在任者的竞争的压力会减轻, 并且革新会减慢。因此, 创生性的电脑和信息应用设备可以相互补充——前者提供革新的肥沃土壤,后者提供坚实的、有利于用户的革新实例。甚至像Skype这样的公司都可以从小做起, 然后凭借它在电脑上的成功, 获得资金并进入商业应用领域。[206] 如果没有创生性的电脑, 创新的能量将会极大减弱。[207]

如何驯服大泛滥后的互联网

由于诸多技术的创生能力, 互联网和电脑在发烧友和业余爱好者中发展起来, 这并不比通过传统企业进行发展更加缓慢, 本文第二部分就描述了这些发展方式。这些技术的适应能力、易于掌握和可获得性意味着很多社群团体, 在以各式各样的商业模式回应各式各样的需要时, 都能生产出新的应用程序并且将其免费、自由地传播。很多这样的程序使创造性的表达和交换成为可能, 从而产生递归的创生性: 开放而又可以改造的操作系统和网络为新工具提供了基础, 这些新工具本身是开放的, 适用于创造性表达。

宽带的出现意味着这些应用程序既能在本地运行, 又能远程运行, 而且可以随时获取使用。本文第三部分描述了互联网和电脑创生能力的破坏性用途(特别是网络安全问题) 是如何引起警惕, 并引发强烈反响的。第四部分勾勒了这样一个自相矛盾的现象: 由电脑和互联网融合而成的网格可以通过更加严格的管制以实现创生能力的最大化。

即使它们会使重要的利害相关者 ( stakeholder) 受益, 但我们仍应当抑制这样一个未来可能出现的糟糕情况, 即大泛滥后的互联网为监管者们创造出新的机会。它和很多技术行业中的企业的计划相一致或者相同。此外, 尽管这是以牺牲难以预测的未来机遇为代价, 但它确实建立在为用户带来新的便利的前提之上, 并允许用户更加便利地参与他们喜欢的活动。

为了评估信息技术可能采取的不同路径, 我们必须牢记其成功的核心贡献者: 那些具有创造力并且被鼓舞来使用创造力的人, 无论是通过生产新代码还是进行可促进代码发展的艺术作品创造。生产了被其他人忽视的应用程序的业余爱好者们在第二部分追溯的互联网和电脑的兴起方面起到了极其重要的作用。在这个意义上, “业余爱好者”当然是那些因为他们喜欢这样做就去做了的人。业余爱好者能够用以表达创造力的工具的可获得性意味着, 除了那些选择从事编写代码工作的专业人士, 代码也可以由他们之外的人编写。在今天, 多亏了互联网信息技术和由很多业余爱好者生产的、不断往复的创生性代码, 艺术可以由此产生并被专业艺术家以外的人们分享, 公民可以和他们不会遇到的人进行远程交流。人们还可以在世界的各个角落一起工作, 创造具有社会和经济意义的智力成果。[208]

随着互联网的发展, 这种创造力的最重要的机遇应该得到保留。但是这将要求那些支持富有创造力的社群的人做出重要让步。他们将不得不面对如下事实: 除非抵消管制力量的压迫性要求得到满足, 否则一个自由和开放的互联网(包括开放的分散在几千万消费者手中的电脑) 是不可能的。现在正是法律和代码介入的恰当时机。事情仍在不断变化, 而且也并没有利害相关人在大泛滥后的互联网中投入过多。干预和介入能够保留甚至增强创生能力, 同时也为稳定性创造了必要的条件。

本部分将描述, 当下的网络法学者对这些问题的思考也许过于局限。它还将描述一些特定的计划, 它们有助于解决一些互联网最迫切的问题, 并尽可能减少对损害互联网创生能力的限制。

() 互联网设计和治理原则的精炼

1. 取代端对端的论辩

Saltzer、 Reed和Clark在1984年关于端对端设计的论文中指出, 端对端只是为保持网络简约而规定的探索性步骤。[209] 从那时起, 端对端中立性原则就被当成一种关于建立免于过滤的、规范的互联网的理想。[210] 很多网络法学者已经把端对端当作互联网自由的战斗口号,[211] 用它来支持关于过滤互联网信息流通的不合适的意识形态争论。尽管这些论辩很有力, 且端对端中立性原则在技术和政治上已经成为影响互联网发展的至关重要的标准, 但端对端并没有完全领会保持互联网创生能力的整个计划。后者才是一开始吸引网络法学者关注端对端诸多价值的更根本原因。

根据端对端理论, 将控制和智识放在网络边缘将会使网络的灵活性和用户的选择最大化。[212] 这种观点的政治含义——端对端设计保留了用户的自由——取决于一个日益不可靠的假定: 即无论谁在给定的网络终端运行一台机器, 都能够轻易选择和决定机器的工作方法。例如, 为了应对充满病毒和垃圾邮件的网络, 网络工程师建议增加更多的带宽 (使传输像病毒和垃圾邮件一样的“重负”化于无形) 和对用户端采取更好的保护, 而不是由接近网络中心的ISP 介入。[213] 但是消费者并不能很好地维护他们的机器, 使其不受攻击, 这导致了他们宁愿选择第四部分描述的封锁了的电脑。那些因为支持创生能力才支持端对端的人们意识到, 如果不能在网络层面上采取行动, 就可能导致网络的某些部分被封闭, 因为消费者会如此要求, 生产商也会提供封闭的终端环境 (这带来了安全和稳定性, 也会使用户自行维护的工作量降到最小)。一些人可能支持无条件的端对端方式: 即使在一个被封锁的电脑世界里, 毫无疑问的, 也会保留着为专业技术人员准备的、非主流的创生性电脑平台。但是这种观点太狭隘了。我们应该看到, 电脑创生能力对每个人而言都具有可获得性, 包括上千万个获取电脑只是为了在当下使用而非在未来使用的人们, 但是他们最终将高兴地发现自己电脑的新用途。

简单地说, 完全忠实于端对端原可能导致用户更加愿意接受数字化的封闭社区。封闭社区能为居民提供安全和稳定, 当有人犯错误时, 也能为其提供一个可以向其抱怨的管理员。但是从创生性的角度看, 数字封闭社区是一个监狱。它的局限性十分明显, 因为它封锁了创造的可能性: 外部人士向用户提供代码和服务的能力将给予用户和生产者不需要管制者的许可就能影响未来的机会。如果数字围禁社群成为常态, 那些在20世纪80年代中期占主导地位的、具有高超技术的互联网用户将仍能够享受没有被封锁的创生性计算机平台, 但是其他公众却不能如此。对于那些使用了封锁的终端的人来说, 网络中心的自由毫无意义。

因此, 对端对端中立性原则的忠实支持应该让位给一项新的创生性原则,即一条要求对电脑/互联网进行修补 (在这些修补对其可能的创生能力危害最小的时候) 的规则。例如在这项原则下, 通过ISP 运行的网络而不是经常更新的电脑来监控病毒, 这在中立的意义上可能更为可取。[214] 尽管这种网络监视在理论上为可能不受欢迎的额外过滤打开了后门, 但这项风险应该与那些创生能力——内在于以服务而非产品身份运行的电脑——造成的风险相平衡。

这项创生性原则提出了至少两种我们可能根本上重塑网络空间的方式。首先, 我们必须在可能产生分歧的那些担心网络连接和协议的人, 与那些关心电脑设计的人之间搭建桥梁, 这种分歧是端对端原则所鼓励的。利害相关人的能力和权限的标准模式起初是对互联网沙漏式架构的一种有用和自然的延伸: 它意味着网络专家们不必成为电脑专家, 反过来也一样; 正如在相应的电脑沙漏中, 操作系统应用软件的分离意味着那个应用程序的开发人员不需要知道电脑的外围设备和网络连接一样。但是这种职责的分离 (它们对于技术设计来讲很有作用) 正在严重损害我们认真思考应用信息技术轨迹的能力。既然电脑和互联网如此紧密地缠绕在一起, 对于网络工程师们来讲, 只关心网络开放性, 并假定终端会自己照顾好自己的想法就远远不够了。终端并不能照顾好自己, 这已十分清楚。

其次, “中端” ( middle) 和“终端”不再能精妙地抓住互联网/电脑图景的特征。从网络角度看, 协议设计和执行它们的ISP是互联网的“中端” , 可以和电脑的“终端”区别开来, 这仍然是正确的。可是出于政策考虑, “中端”和“终端”术语的真正含义则与个人控制的力量有关。如果用户不再能对其电脑终端行使有意义的控制, 却把这种控制转让给政府或像操作系统生产商及安全软件经销商这样的法人组织, 那么当“终端”衰落的时候, 电脑就会被一个“中端”以及它们的各种表现形式所操纵。即使在今天, 消费者们也可能不会想拥有调制他们电脑的能力。创生能力的分类也表明了这样的调制是不可能的,因为即使它们保持着强大的能力和适应能力, 电脑技术对大众而言, 掌握起来仍然很不容易。但是, 事实上有很多方法能够帮助大众弥补难以掌握电脑技术的缺陷, 只有其中的一些要求中央集中控制。例如, 用户们可能会从微软、Ralph Nader等一系列代理商或公共利益组织中选择, 来学习电脑配置的基础性知识。既然网络终端可以为远程实体所控制, 取消端对端争论中关于“中端”和“终端”的简单划分, 将会使我们能够辨别并更好地回应正在出现的对互联网创生能力的威胁。

2. 重塑互联网治理的争论

从20世纪90年代中期以来, 一场关于互联网治理的集中但被误导了的争论激烈地持续着。那些关心互联网未来的人不恰当地忙碌于域名和国际互联网名称与数字地址分配机构 ( ICCAN, 这是负责管理顶级域名政策的非营利组织)之上。 ICCAN已经成为互联网治理争论的焦点, 但其原因却是被循环论证的:ICCAN是一个管理互联网运行的一个特定的 (而且很有限的) 部分的组织。域名分配的焦点问题是真实存在的, 但是和不恰当地限制互联网创生能力的威胁相比, 集中于这些争论和ICCAN的治理是目光短浅的。

处于另一个极端的则是世界峰会, 这是一个2003—2005年间的联合国项目, 其对信息社会给予高度关注。[215] 世界峰会探讨了包括域名管理在内的狭隘争论, 也包括了全球数字鸿沟等更大的困境: 如何确保尽可能多的人和国家使用互联网。[216] 这项事业的确很有价值, 但是它使互联网治理看上去只像是国际发展政策的一个方面。

就像应该鼓励互联网建筑师把网络设计原理应用到电脑上一样 (当它们发展的时候), 处理互联网治理事宜的团体应该注意互联网/电脑网格发展的途径,并且要直接努力设法解决如何让互联网保持创生能力的问题。小而言之, 假定互联网发展的首要挑战是如何实现管理功能; 或者大而言之, 互联网发展的首要挑战是向其他人展示网络的话, 这一进路就忽视了互联网未来所面对的最重要的问题。

第四部分阐述了, 操作系统制造者或安全企业可能为了追求安全性的用户而封锁电脑的应用程序, 从而使除了集中控制的权威之外的任何人都能够制造出对应用程序的利用来说更广的瓶颈。那么困难就在于, 无论它们来自于政府还是私人代码过滤机制, 在承认电脑用户不再能够进行有意义的选择之时, 如何避免这些瓶颈。一个为了保持消费者选择而不会制造出新瓶颈的有价值的互联网治理计划, 可以采用草根运动或者有互联网建筑师参与的公共利益组织的形式进行。这个计划可以建立起一个技术架构来标明应用程序和可执行代码的片段, 同时也可以成立一个非歧视地应用这些标签的组织。这项计划可以替代性地建立一个分布式架构, 通过这个架构, 关于是否要运行一个给定应用程序,个人决定及其结果可以为其他考虑是否运行该代码的人提供建议。即使意识形态观点和管制日程经常嵌套在技术决定当中, 但互联网的历史就伴随着成功的、献身于这样目标的组织而发展。[217] 公共利益为互联网成立的“保险人实验室”将会减少用户对操作系统生产商或ISP 的评价需求。正是因为区分病毒、间谍软件、编写糟糕的软件以及软件制作者的定额抽租行为 ( flat rent extraction) 的界线相当模糊, 使用这类过去就用来为互联网发展服务的准公共机制, 能最好地对这些界线进行评判。替代方案则是要看这样的力量附着在一小撮有动力为了安全与其他目的而成为守门人的私人企业的具体行动。

也许最有希望的是, 互联网网格自身能够支持对有用信息的即刻搜集和整理, 使信息随后就会从一台电脑传播到另一台, 并允许用户对代码做出有见地的决定。可以开发出这样的工具, 它们能向互联网大众成员提供简单而强大的关于代码的信息。其中之一可以是一块显示信息 (诸如世界上有多少其他电脑正运行一个候选软件, 或是平均来讲, 这些软件的用户对他们的电脑比那些没有运行该软件的电脑感到更多或是更少的满意) 的汽车仪表盘。一项显示一个上周还不存在的软件现在却异乎寻常的流行的标尺可能使用户在运行该软件之前保持警惕。 Jean Camp 教授和其他人已经勾勒出一个搜集用户对代码的评判的系统。[218] 这种显著的用户评判——也许不可靠, 因为很多用户并不知道他们的电脑如何工作——可以由自动生成的统计数据 (例如一台电脑多久会重新启动或生成弹出式窗口) 或者非专业用户可能产生的更可靠的不明确评判 (例如用户对他们电脑有多满意) 加以充实。通过在数以千计、百万计的用户之间积累,仪表盘就能够剔除和展示某一代码的效果。

3. 认识与创生能力有紧张关系的诸利益

那些为互联网自由争取先例的人们——他们相信应该抵制几乎任何形式的控制——并应该准备好做出妥协。强大的控制试图保护的很多利益事实上是合法的, 而且, 通过点击鼠标, 向新的和有潜在危险的应用程序完全开放互联网和电脑, 与广泛的用户群体也并不相适应。要想阻止对这类威胁, 不可避免,必须部分满足其潜在的政策考量。

互联网在发展中曾经有过一段有意避开控制模式的时期, 因为网络是实验性的, 而且因误用而可能带来的危害很有限。毕竟网络只运送比特 ( bit) 。人们可能会将它与一个假设的、高度创生性的儿童化学装置相比, 能够被改造,也能被加强: 它会包含可以完成各种各样任务的化学成分, 只要用户渴望这样做, 只需要加入少量成分便可得到结果。它也将是高度可获得的: 儿童将能够学习如何使用它。但是这种创生能力有一个明显的内在风险: 一场化学事故对儿童甚至对周围邻居来说可能是危险的。[219] 一名怀有恶意的儿童——或是成年人——随着该装置的创生能力增长, 能够造成巨大破坏。当然, 同样的原理也适用于基因剪接装置 ( gene splicing kits) 、原子加速器, 以及许多当地硬件商店里的强大工具。

那么在抽象层面上, 人们可能会问: 对于一项给定的技术, 在面对威胁而妥协之时, 还能保持多少创生能力? 如果只知道有一项技术是在计算机或者信息科学领域, 而另一项技术是在物理学领域, 就可能足以暗示, 前者应该比后者有更多为创生能力保留的空间。因为误用或滥用前者的危害, 特别是物理损害, 在结构上讲是比较低的。由于对应用程序和网络难以控制的使用而导致危害的最坏的例子——包括侵犯隐私、金融欺诈、诽谤和侵犯版权——比起那些由于对肥料、炸药和培养皿的使用导致的危害而言, 物理性危害更小。[220] 一方面, 因为有了物理科学中的创生性技术, 良好的应用可以事先得到鉴别, 而危害的应用则会更多地扩散, 这意味着保持普遍创生能力的收益会更少。而另一方面, 有了互联网, 真正有危害的应用程序是那些已知的例外, 应通过技术将它们从潜在的应用中剔除出去。至少, 如果危害可以通过有限的介入就被辨认、预防或是修正, 这些介入就比对电脑和互联网造成破坏的创生能力本身更加可取。

既然互联网不再是实验性的了, 一种“它不过是比特”的直觉也不那么迫切了。 1988年的开放程度已经不能适应今天了, 当时, 互联网用户的“职业伦理”被认为是对付病毒制作者的适当方法[221]

最适合用以解决病毒、侵犯隐私、垃圾邮件和侵犯版权的问题的人可能正置身事外, 没有动力参与解决, 且他们宁愿选择一个完全开放的互联网, 因为他们能够因自己的技术优势而防护互联网的危害。尽管如此, 如果他们不向这些问题贡献创造力和努力, 较不敏感的解决方式也很可能出现。

4. “双重机器”办法

第四部分指出, 用户应对互联网/电脑网格中潜在的安全脆弱性感到恐惧,因此他们会要求一个封锁的信息应用设备能够控制创生性的电脑。尽管如此,人们可能试图通过在一部装置中同时创造出创生能力和安全性, 来寻找两大需求的协调。为了达成这样的妥协, 我们可以使用键盘上的物理开关建造电脑——在“红”和“绿”之间转换。[222] 转换到红色模式的电脑会和今天的电脑差不多: 它将能够运行它遇到的任何软件。这种模式会使用户的选择最大化, 允许用户参与未能预见的程序, 例如电脑之间的电话通讯, 其有价值的部分要依赖于其他用户的掌握。然而, 这样一种配置会使系统对蠕虫和病毒保持结构性的脆弱。因此就有了绿色模式, 电脑处理器会在同一硬件中指向不同的操作系统和数据。在该模式下, 电脑可能只运行经过允许或审查的软件——乐趣更少,但更加可靠。消费者就能在两种模式之间转换, 试图确保在绿色模式下产生和存储珍贵或敏感的数据, 而红色模式则留作实验用途。像这样粗略划分的好处在于, 它特别能被消费者所理解——就像司机能够理解多功能运动休旅车在越野时要全轮驱动一样——而同时还保持今日电脑的强大能力和适应能力。

但是这样的电脑又有了新问题。例如, 假设绿色连接给客户服务带来的负担较轻, 而且不太容易被滥用, ISP 可能就会为连接绿色模式提供比较低的速率, 而为红色模式提供比较高的速率。企业环境可能只提供绿色模式的电脑从而限制了可用创新的受众。或者绿色模式可能因其严格的设计而使多数用户难以接受, 因此他们会继续在传统电脑和厂商特制的信息应用设备之间选择。即使是使用了绿色模式的电脑, 也要找到某种方法来确定何种软件适合在开放电脑上使用而何种不能。运行多重虚拟机的电脑[223]是一个有前途的平台, 但是它引发了很多与被锁定的电脑可能会遇到的问题相同的问题, 尽管这些问题的解决方法可能在于试图将红色应用程序和绿色分开的分布式的、为公共利益而做出的努力。

() 政策介入

1. 为直接责任寻求更多机会

当造成损失的能力随着互联网的延伸和依赖它的行为数量的增加而增加,采取行动的要求也会增加。中间人将会被要求进行监视, 因为他们提供了能够过滤用户行为的服务。当通过网格执行这种变化变得容易的时候, 降低电脑或互联网创生能力的可能也会增加。

一个从制度和技术上减少守门人的压力的方法是使直接责任更加可行。像垃圾邮件这样零星的问题的解决办法就采取了这样的方法。 ISP 正在与主要的计算机电子邮件应用程序制造商合作, 以提供发件人身份认证的形式。[224] 给定的领域可利用公钥加密技术, 以确定其是电子邮件的来源。微软的发送者ID或相似的东西可用于认证, 但自称 (没有证明) 是来自yahoo. com用户的电子邮件可能会被当作垃圾邮件过滤掉, 根本没必要再次发送。这种制度将使ISP 对其允许从其网络发出的电子邮件负有更多责任, 因为如果它们允许过量的匿名垃圾邮件, 将会导致其他提供商回避自己的网络。这种更多的承担直接责任的机会将减少处理电子邮件的人的压力, 既包括标明了的收信人, 也包括他们的提供商。但他们仍然承受着探索无意封堵合法邮件的垃圾邮件过滤器的压力。[225]

同样的原则可以应用于个人对互联网的使用, 这种使用似乎对法律保护的利益有危害。从创生能力的角度看, 音乐产业针对个人文档共享行为的诉讼对网络和电脑本身几乎没有损害, 即使它们是糟糕的政策, 因为划定被保护利益范围的实体法本身是欠缺考虑的——就像我认为的那样, 如果技术允许对互联网用户进行更加便捷的认证, 与法律程序, 也许还有技术限制, 一并确保这样的认证只有拥有充分理由才能够进行, 那么互联网的未来可能会更加光明。

正如第二部分讨论的那样, 很多互联网用户的设备拥有无线上网功能, 无线路由器默认与附近拥有配置了无线天线的电脑的任何人分享网络连接。用户可能是在无意中打开了他们的网络, 但是他们的设备能够给予那些附近无法上网的人相应的创生性好处。[226] 其他人的使用并没有明显阻碍最初的用户享用宽带服务, 但是如果外来者使用那个链接, 比如说发送病毒或非法复制享有版权的作品, 一旦该互联网链接被找到, 原始用户便可能担责。[227] 当出现这样的例子且其已经广为人知的时候, 用户就会试图去切断其他人对自己多余网络资源的链接, 而无线路由器的生产商就会把默认设置改为“关闭”。尽管如此, 如果真正的个人身份能在适当条件下被确认, 无线网络共享就不必被阻碍: 每一名用户都会为自己的行为负责。但是就由技术所保证的匿名性被维持的程度而言, 更多通过守门人的介入来消除个人不良行为的激烈方法正在等待实施的时机。

2. 在创生能力和责任之间建立选择

就那些使用创生性平台侵害他人受法律保护的利益的人可以被施加直接责任的程度而言, 技术平台的维护者——ISP 和新近类似服务的操作系统生产商——应当被鼓励使它们的平台保持创生性, 而不是像Picker教授暗示的那样,缩减它们的服务范围而使管制性控制变得容易。[228]

反过来, 平台越是以服务为导向, 创生性便越小, 我们就越应该将更多的法律责任施加给技术提供者, 以确保一个有效运作的系统。如果一个TiVo机盒没有像承诺的那样运行——假设它只是崩溃不能录制电视节目了——保修的法律就会很快发挥作用。如果这个TiVo机盒足够新, 该公司将通过维修或替换进行弥补。然而这个简单的交易很少在购买一台新电脑之后发生。假设一台新电脑停止运转: 在用它上网冲浪和撰写文章的一个星期后用户开机后只能看到蓝色报错屏。[229] 除非有烟从电脑设备中飘出, 表明是硬件问题, 硬件生产商很可能做出该问题和软件有关的判断。因为用户在购买电脑后安装了软件, 准确找出问题所在并不容易, 而且在特别困难的情况下, 操作系统生产商只会建议进行耗时费力的完全重装系统, 把用户已经做出的改变抹得一干二净。

硬件和操作系统生产商对这类普遍的问题应该承担很少的责任, 这是正确的, 因为到底是硬件还是系统出了问题并不清楚。甚至是在一台新买了两周的联网电脑上发现的软件混杂体, 都能阻止特定硬件或软件生产商的责任。

第四部分认为, TiVo和电脑是趋同的。就电脑系统试图监控其上运行的程序的程度而言, 法律应当使系统生产商为出现的问题承担责任, 就像TiVo和手机生产商都对他们控制的技术承担责任一样。如果操作系统对第三方的新应用程序保持开放, 生产商的责任应该被适当减少。这样的体制允许技术经销商生产封闭的平台, 但却通过减少相应的责任而鼓励他们生产创生性的设备。这就揭示了从属责任理论背后的客观事实: 技术生产商可以随心所欲地塑造技术,但是他们选择的配置却反映了他们的义务和责任。

本部分勾勒出一条中庸路线, 法律的运作可能通过它恰当地推进创生能力。毫无疑问还有其他方式, 比如修改消费者保护法, 以确保从产品到服务的转变并不允许技术供应商通过所谓的产品例行更新 (而实际上在本质上改变了消费者讨价还价的优势) 来打乱稳定的消费者预期。每一种介入都根植于对如下事实的承认: 法律已经以多重方式影响了技术的发展, 因此可以进行调整, 以将创生能力作为其他政策优先事项中的一项重要目标。

结论

现代互联网正处在转变的关键时刻。本文认为, 互联网和电脑的创生能力在信息技术方面已经取得了很大的进展, 这反过来又促进了在艺术和政治表达形式上的进展。互联网建筑师们和管制当局赞同这一进展, 但他们正为其过度发展而日益担忧。既然我们依赖于互联网和电脑求取我们认为重要的应用装置,培育了最大限度创生能力的实验主义精神现在正变得不合时宜。

那些对充满活力的全球互联网感兴趣的人们面对的挑战就是, 在日益增长的压力面前保持这种实验主义精神的核心要素。有一种方案会导致温和的分离,创造出两种截然分开的拥有明显不同用户的互联网: 这是一种向寂静的死水回归, 有别于那些拥有崭新的受控的互联网经验的消费者, 寻觅将会在研究者和黑客中重新开启不断生成循环的原初实验主义互联网。这两种互联网将决定现存网格的应用化命运, 其中很少有创新产生, 因为现有的技术参与者是在缺乏网格促成的创新套利行为的竞争压力下, 不断对现有的应用设置进行修正的。

本文支持的另一个替代性的方案则试图维护现存网格的基本创生能力, 同时也认真对待那些支援“向所有人自由开放的互联网”之敌人的问题。它要求设计一条中间路线使网络变得更加安全, 并使一些管制者反对的行为得到更好的管制, 这是为了继续让那些使互联网取得极大成功的某些业余编程设计得到迅速发展。

通过将电脑转变为一种信息应用设备从而削弱具有创生能力的可获得性和适应能力, 这是不会令人满意的。同样, ISP 们为了反击病毒和其他电脑安全威胁而对互联网进行笨手笨脚的钳制也不会令人满意, 即使是在完全忠实于端对端中立性原则, 并可能为了保持平衡而危害到创生性信息技术环境的时候。某些限制是不可避免的, 本文试图指出可能明智地使用这些限制的方式。它们本身并不会产生新的集中化守门人, 关键就是要通过采取向适应能力进行深思熟虑的调整来设置这类限制。恰当的干预会保持公众从各个角落采用新技术的能力, 为那些希望向世界引入软件的人们和那些应用这些软件的人们创造一种大致的责任, 同时又让那些保持创生性技术的人们, 包括互联网建筑师、 ISP和操作系统生产商, 能够保证技术开放, 能够确保那些希望对全球信息网络有所贡献的人们可以这样做, 而不必占据已经成立的公司和强大的政府的特权职位。

(初审: 郑磊茜陈宝妮; 校对: 何琴琴童桐)