1️⃣ MTProxy - Telegram 官值级代理工具
项目: TelegramMessenger/MTProxy 标星: 5,945 ⭐ (约 6000) GitHub: https://github.com/TelegramMessenger/MTProxy
![]()
核心功能
- MTProto 协议支持:Telegram 官方代理协议,稳定可靠
- ⚡ 快速部署:一条命令完成编译和启动
- 安全加密:基于 OpenSSL 和 TLS 加密传输
- 流量伪装:支持随机填充,对抗深度包检测
- ️ Docker 支持:官方提供 Docker 镜像,开箱即用
- 统计监控:内置端口统计,实时查看连接数
# 1. 安装依赖(Ubuntu/Debian)apt install git curl build-essential libssl-dev zlib1g-dev# 2. 克隆项目git clone https://github.com/TelegramMessenger/MTProxycd MTProxy# 3. 编译make# 4. 获取密钥和配置curl -s https://core.telegram.org/getProxySecret -o proxy-secretcurl -s https://core.telegram.org/getProxyConfig -o proxy-multi.conf# 5. 生成用户密钥head -c 16 /dev/urandom | xxd -ps# 6. 启动代理./objs/bin/mtproto-proxy -u nobody -p 8888 -H 443 -S \ --aes-pwd proxy-secret proxy-multi.conf -M 1适用场景- ✅ 需要稳定访问 Telegram 的用户
- ✅ 服务器资源有限的场景(轻量级部署)
- ✅ 需要流量伪装对抗审查的场景
- ✅ 想要自建代理服务的开发者
MTProto 是 Telegram 官方推出的代理协议,相比传统代理更稳定、更难被检测。开源实现意味着你可以完全掌控自己的数据,不用担心第三方代理服务的安全问题。部署简单,一台小服务器就能跑起来,长期使用非常划算。
2️⃣ Superhuman Reasoning - DeepMind 超人类推理项目
项目: Google-deepmind/superhuman 标星: 458 ⭐ GitHub: https://github.com/google-deepmind/superhuman
![]()
核心功能
- AlphaGeometry:在国际数学奥林匹克竞赛中达到银牌水平
- AlphaGeometry2:2024 年 IMO 银牌成就
- IMO Bench:高级数学推理基准测试套件 IMO-AnswerBench:400 个高难度简答题 IMO-ProofBench:60 个专家验证的证明题 IMO-GradingBench:1000 条人工评分数据
- Aletheia:由 Gemini DeepThink 驱动的数学研究代理
- 完整论文:Nature 级别论文及配套代码
## IMO Bench 三大组件### AnswerBench- 400 个简答题- 考察计算准确性### ProofBench- 60 个证明题- 专家人工验证- 考察推理严密性### GradingBench- 1000 条评分数据- 推动自动评估发展适用场景- ✅ AI 研究员关注数学推理能力
- ✅ 需要高质量基准测试数据集
- ✅ 研究 Agent 自主验证和修正
- ✅ 学习几何定理证明方法
DeepMind 的 Superhuman 团队专注于突破 AI 在数学推理方面的极限。从 AlphaGeometry 的 IMO 级别表现,到 Aletheia 的自主研究代理,这个项目展示了 AI 在抽象推理领域的最新进展。对于关注 AI 前沿、特别是数学推理方向的开发者来说,这是必看的标杆项目。
3️⃣ Hands-On Large Language Models - 图解式 LLM 教程
项目: HandsOnLLM/Hands-On-Large-Language-Models 标星: 21,257 ⭐ (约 2.1 万) GitHub: https://github.com/HandsOnLLM/Hands-On-Large-Language-Models
![]()
核心内容 12 章完整教程:从入门到进阶,系统学习 LLM 300+ 自制插图:每个概念都有直观图解 Google Colab 支持:免费 T4 GPU,开箱即用 实战代码:理论+实践,边学边做 完整目录: Chapter 1: LLM 入门 Chapter 2: Tokens 和 Embeddings Chapter 3: Transformer 内部机制 Chapter 4: 文本分类 Chapter 5: 文本聚类与主题建模 Chapter 6: 提示工程 Chapter 7: 高级文本生成技术 Chapter 8: 语义搜索与 RAG Chapter 9: 多模态 LLM Chapter 10: 创建文本 Embedding 模型 Chapter 11: 微调 BERT 等分类模型 Chapter 12: 微调生成模型
![]()
专家推荐
"我没想到还有比这更重要的书。每一页我都学到了对当前时代成功至关重要的东西。" — Andrew Ng,DeepLearning.AI 创始人
"这本书为语言模型及其在工业界的实际应用提供了卓越的高可视化覆盖……强烈推荐!" — Nils Reimers,sentence-transformers 创始人适用场景
- ✅ 想系统学习 LLM 的开发者
- ✅ 需要理解 Transformer 内部原理
- ✅ 想学习 RAG、提示工程等实战技巧
- ✅ 需要高质量学习资源(英文)
作者是 Jay Alammar 和 Maarten Grootendorst,之前写过《图解 Transformer》《图解 BERT》等畅销书。这本书延续了他们一贯的高可视化风格,300+ 自制插图让复杂概念一目了然。配套的 Google Colab 笔记本让你免费使用 T4 GPU 跟代码,对于想深入理解 LLM 的开发者来说,这是目前最好的学习资源之一。
总结
这 3 个工具各有特色:
- MTProxy - 如果你需要稳定的 Telegram 访问方案,这是官方级别的选择
- Superhuman Reasoning - 如果你对 AI 数学推理前沿研究感兴趣,DeepMind 这个项目不可错过
- Hands-On LLMs - 如果你想系统学习大语言模型,这本图解教程是最好的入门资源
项目链接:
- MTProxy: https://github.com/TelegramMessenger/MTProxy
- Superhuman Reasoning: https://github.com/google-deepmind/superhuman
- Hands-On LLMs: https://github.com/HandsOnLLM/Hands-On-Large-Language-Models
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.