下载&安装
爱派是什么?LLM+Python程序可以操作和控制一切


有了爱派,世界从此不同

通过用例,了解爱派的神奇之处
控制局域网打印机
用户好评












爱派(AiPy)为何如此不同
Q:AiPy是什么?
Q:AiPy和现在的Ai有什么区别?
Q:AiPy是新的大模型还是套壳的大模型?
Q:AiPy的范式是什么?Python-Use又是什么?是Agent类的产品吗?与Manus、MCP等有什么区别?
A: AiPy是我们基于一种新范式Python-Use开发的一种更加通用快捷地使用大模型完成各种任务的产品。
传统的大模型AI Agent经典范式是通过开发大量的工具Agents再通过协同合作来完成各种任务,人们依赖于更多的Agents的开发及部署安装,在某种角度上上其实开发部署更多的Agent是限制了大模型能力发挥,而AiPy(Python-Use)一种新的范式,是一种“让AI用上 Python,让Python用上AI”的方式,也就是大模型通过对用户任务的理解进行规划拆分,并通过API Calling及Packages Calling实现自动编码并自动执行代码,还可通过反馈机制不断完善迭代,最终实现AI与环境的交互完成任务。
所以我们提出了:“真正的通用AI Agent 是NO Agents! (The real general AI Agent is NO Agents!)”的理念,AiPy(Python-Use)实现的是"No Agents, Code is Agent."新范式,Python 使用数据,Python 使用计算机,Python 使用网络,Python 使用物联网,Python 使用一切,最终实现真正的AI Think Do!
具体Python-Use的相关代码我们已经开源: https://github.com/knownsec/aipyapp
基于这个理念我们认为是跟Manus、MCP等最大区别!对于用户来说:
AiPy相比Manus最大的区别是,AiPy本身是开源免费的,用户只需承担大模型等API的调用token的费用(当然你还可以使用免费的大模型),因为不需要大量的Agents的调用,所以AiPy在相同任务Token消耗上也相对较少。另外还有一个最大的优势是,AiPy支持本地部署,用户无需把自己的敏感数据及文档传到云端,因为AiPy只负责任务进行对应编码,数据处理完全都是在本地进行,对超大文件的处理、涉及敏感数据的处理有种安全可靠的优势。
AiPy相比MCP Server最大的优势是,用户无需依赖各种服务定制开发的各种MCP Server,也无需去部署安装使用,也无需担忧各种MCP Server提供方不可靠带来的安全风险。AiPy可通过实时编码实现各种API的调用,完成各种功能,大家可以通过上面展示的案例或自行体验AiPy的魅力。
总之AiPy提供多种部署方式,不再局限在云端主机各种限制,也不需要各种工具的开发、下载安装及各种复杂的配置,你需要的只是跟大模型对话。
AiPy 支持哪些大模型?支持本地大模型调用吗?有哪些建议使用的模型?
A:AiPy 理论上支持所有通用大模型的调用,你只需要在配置文件中设置好通用大模型的API及模型信息即可完成调用。本地大模型我们目前也支持Ollama、LMStudio的API调用。
因为Python-Use的范式,很多的能力取决于大模型本身,所以从效果上讲大模型的编码能力等综合能力越好的模型实现任务的表现度越好。当然我们也需要考虑到大模型API调用的token花费成本问题,在性价比角度考虑,我们推荐使用DeepSeek,经过测试很少花费就可以实现大部分的任务执行工作
Q:AiPy 目前能干哪些事情?
Q:AiPy 可以调用其他产品及业务的API吗?是怎么实现的?支持本地私有API吗?
A:是的,AiPy支持各种互联网业务的API调用,包括搜索、地图行程规划、社交媒体、天气等API服务,可以内置也可以在调用生成代码时候输入对应的API Key进行调用使用。至于实现API的调用我们实现了一个叫“API Calling”功能,大模型估计他对任务的理解去选择调用对应的API,你也可以通过任务提示词指定的方式去实现调用。
本地部署的AiPy是支持本地私有化的API的调用的,你只需要在配置文件里写好对应的API说明及地址即可。