1. x1xhlol/system-prompts-and-models-of-ai-tools
GitHub 仓库收集并整理AI工具的系统提示词与模型配置泄露信息(超3万行),为开发者理解LLM行为与提升生产安全提供参考与警示。
- 汇总AI工具的system prompts与模型相关细节,强调结构与功能洞察
- 内容规模超过30,000+行,并提供Discord社区与趋势/Star历史等项目运营信息
- 面向AI初创公司给出安全警告:暴露提示词/模型配置易被攻击,并推广ZeroLeaks安全审计服务
- 提供多种赞助与捐赠方式(加密货币、Patreon、Ko-fi),并开放issue反馈与路线图更新时间