Presearch是一个去中心化、以隐私为导向的搜索引擎,它刚刚推出了PreGPT 2.0,标志着该公司挑战大科技公司在人工智能聊天机器人领域主导地位的最新尝试。
新版本带来了改进的语言模型和更广泛的开源人工智能选项,所有这些都运行在分布式计算机网络上,而不是集中式数据中心。
"我为什么这么激动?因为PreGPT 2.0太强大、太无拘无束了,它有可能从根本上颠覆长期以来操纵传统智慧的回音室效应,将从众本能放大为盲目顺从,"Presearch创新和运营负责人布伦登-塔肯(Brenden Tacon)告诉《解密》。
升级后的聊天机器人有两个订阅层级:每月 2 美元的基本计划,运行 Mistral AI 的 7B 模型;每月 5 美元的专业版,采用 Venice.ai 更复杂的 LLM。这两种方案都承诺保持用户数据的私密性,对话不受监控,聊天记录在删除后将被永久删除。
PreGPT 2.0 的模型阵容包括开源人工智能领域最知名的六个公司:Meta 的 Llama-3.1-405b(一个巨大的模型)、Llama-3.2-3b(一个为提高效率而设计的非常小的模型)和 Llama-3.3-70b(其最新的 LLM),以及阿里巴巴的 Qwen 32b。
它甚至还利用了旧的 Dolphin 2.9 模型,该模型以前在人工智能界以完全无审查、功能强大--擅长角色扮演而闻名。该公司似乎还对 Mistral 7B 模型进行了微调,以提供定制版本。
根据该公司网站的介绍,"该模型可以优雅地处理 8000 个 Tokens(相当于约 5000 个单词)的上下文,并且您将被限制在每月 1000 条信息的范围内"。
这意味着该模型的内存为 5000 字,无法正确处理超过这一限制的对话,或者无法处理这么长的提示信息。
Presearch 早在 2017 年就推出了测试版,并于 2018 年上线,基本上是一个希望用去中心化技术重新构想搜索引擎架构的项目。
该平台通过独立节点网络每月处理超过 1200 万次搜索。每个节点操作员都持有 PRE 代币,并向网络提供计算能力,从而创建了一个可自我维持的生态系统,并随着需求自然扩展。
我们的想法是,一个去中心化的网络会使谷歌的商业模式中对用户的分析变得更加困难,并有助于产生一个更加透明和有机的商业模式。
该平台的广告模式也不同于谷歌或必应等公司的广告模式。
广告商不是通过关键词竞价来获得知名度,而是以 PRE 代币作为赌注。投入的代币越多,广告投放的效果就越好--这一系统在减少代币流通量的同时,也创造了可预测的收入。
这些代币中的一部分会被定期烧毁,使目前流通的 5.9 亿 PRE 的总供应量逐渐减少。
PreGPT 2.0 通过与注重隐私的人工智能服务提供商 Venice.ai 和共享去中心化 GPU 能力的社区 Salad.com 合作,充分利用了这种分布式基础设施。
专业层在 Venice.ai 的高性能网络上运行,而基本计划则由 Salad.com 的分布式 GPU 网络提供支持。
这两种途径都对用户互动进行加密,并且不存储聊天记录,坚持了 Presearch 对隐私的承诺。
PRE 的代币经济保证了系统的平稳运行。用户通过搜索查询每天最多可获得 8 个代币,而节点操作员则根据其赌注大小和搜索量获得奖励。
至少从理论上讲,这似乎是一个双赢的局面,用户和广告商都能得到适当的回报,同时也有助于生态系统的发展。
PreGPT 2.0 是 Presearch 工具包中新增的一项独立人工智能功能;该公司仍然专注于去中心化、私人搜索的核心使命。
聊天机器人的集成旨在补充搜索体验,而不会使其黯然失色。
我们的目标是让整个平台成为有隐私意识的用户的理想选择,这些用户希望用它来替代传统的网络搜索,并对在日常生活中使用人工智能工具充满好奇。
在对 PreGPT 2.0 进行测试后发现,该聊天机器人功能强大,但并不花哨。与 Venice.ai 或 Hugging Chat 等竞争对手相比,它的界面更简洁,但缺乏图像生成功能,而这在其他地方已成为标准配置。
系统提示功能的集成让用户可以通过自定义指令对人工智能的行为进行微调,这有助于获得更精确的响应--声音系统提示可以显著提高模型的性能。
对于那些习惯于摆弄不同聊天机器人的人来说,整体体验会感觉很熟悉。
这并不是人工智能能力的革命性飞跃,而是对现有开源模型的一种注重隐私的实现,这些模型的功能往往不如 GPT-4o 或 Deepseek 等主流替代品强大。
该平台只能管理纯文本。它可以编写睡前故事或总结趋势,但不支持 Excel 文档,也不能正确格式化 CSV 文件、PDF 或第三方文档。
相反,用户必须实际复制工作表的内容并粘贴,这与理想状态相去甚远。那些将去中心化与速度慢混为一谈的人完全不必担心。
回复速度很快,聊天机器人也从未挂过。但这些模型的质量并不符合你对开源 LLM 的期望,因为它们在 LLM 竞技场上并没有名列前茅--LLama 3.1 405b 目前排在第 27 位,是 Presearch 名册上功能最强大的模型。
这并不差,但以今天的标准来看也并不令人印象深刻。
目前有一些开源实现在可以说是类似的规模下要强大得多。
例如,Llama-3.1-Nemotron-70B-Instruct 可以轻松替代较新(但并不更好)的 Llama-3.3-70b,而 Deepseek R1 比 Meta 的 Llama 3.1 405b 要好得多,是迄今为止最好的开源模型。
总体而言,体验是令人愉快的;模型的表现符合预期,界面也比主要竞争对手 Venice AI 更容易使用。
如果您正在寻找一种隐私解决方案,或者想尝试当今所有的人工智能工具,那么这项功能绝对值得一看。只是要考虑到,搜索引擎不会取代谷歌,人工智能聊天机器人也不会取代 ChatGPT--至少现在还不会。
编辑:Josh Quittner 和 Sebastian Sinclair
© 2025 DeFi.io