Gai 应用的数据隐私与安全处理之道
第一部分:深度洞察 —— 我们为什么要开发 Gai?
作为普通用户,在使用 AI 时常常陷入“两难”:
- 本地模型(在自家电脑跑 AI模型):虽然数据不出门,但运行慢得像蜗牛,且知识易陈旧。
- 云端模型(用大公司的 AI):虽然聪明反应快,但存在“数据养料”风险(隐私被拿去训练模型)和“信任黑盒”(厂家承诺不存数据,但背后可能存在人工审计或隐私留存)。
我们的结论:算力可以借用大平台的,但数据的“生杀大权”,必须握在用户自己手里。
第二部分:隐私应对之道 —— 把“选择权”还给你
- 直连与审计(BYOK):支持填入你自己的 Key。
Gai故意不设数据加密锁定(SSL Pinning)。我们鼓励懂技术的朋友通过抓包工具审计:你会发现数据是直接发给供应商的,我们中间绝不偷看。 - 最小信息熵(按需输入):很多应用要求扫描你的整个硬盘,这太危险了。
Gai坚持“你不给,它不看”,只处理你当前手动输入的那一小段片段,让云端 AI 无法拼凑出你的完整商业版图。 - 本地化日志(无云端同步):你的对话记录不传云端、不搞强制同步。它们只保存在你本地设备中。你可以像管理私人文档一样随时物理删除,真正做到“我的数据我做主”。
第三部分:安全白皮书 —— 好工具不该盯着你的“钥匙”
1. 系统级沙盒:给 AI 画个“圈”
很多应用为了方便,会要求获取电脑的最高权限。而 Gai 严格遵循系统原生沙盒规范运行:
- 天然隔离:沙盒就像一堵围墙。
Gai被关在墙内,接触不到墙外的私密照片、银行账号或系统文件。 - 未经允许,不得出入:AI 生成的任何文件都锁在沙盒内。除非你亲手点击“导出”,否则它连一张图片也别想私自存入你的桌面。
2. 自主连接器:拒绝“引狼入室”
现在流行的 MCP 协议或 Skills(技能包) 往往是由第三方提供的“功能黑盒”,你无法确定里面是否藏有后门。
- 从“第三方插件”到“自主连接”:我们不提供现成的危险技能包,而是提供开源的
PyGai连结器。 - 本质区别:普通插件像请了一个你并不认识的保姆,他背着你做了什么你完全不知道;而
PyGai是你亲手组装的传声筒,代码完全透明。只有你亲自开放、亲自编写的逻辑,AI 才能执行。
3. 可追溯的“思考过程”
* Gai 坚持报错不整容,原样透传 API 的反馈。同时,每一条调用参数、安全设置都会记录在本地审计日志中。这种“过程存证”确保了 AI 的每一次思考都有据可查。
结语:学会“安全驾驶” AI
Gai 并不追求那种“完全脱手”的伪自动化,我们追求的是“看得见、管得住、学得会”的真辅助。通过系统沙盒的“硬隔离”和自主连接器的“软逻辑”,我们把 AI 关在了笼子里。