苹果移动处理器现在由台积电在美国生产; 为什么 wordfreq 不会更新

165 阅读10分钟

苹果移动处理器现在由台积电在美国生产

台积电亚利桑那晶圆厂投入运营:台积电位于亚利桑那州的首家美国芯片制造厂 (Fab 21) 已开始生产。

Apple 是首个客户: Apple 将成为首家利用该工厂的客户,使用台积电的 5nm 工艺节点(特别是 N4P 版本)生产其 A16 移动处理器。

选择 A16 的意义: 选择用于 iPhone 和 iPad 的高性能芯片 A16,表明了 Apple 和台积电致力于通过这个亚利桑那州项目产生重大影响。

产量平价即将到来:虽然亚利桑那州的产量(生产出的功能性芯片的百分比)与台湾相比略低,但它们正在迅速提高,预计很快就会达到平价。

A16 芯片的潜在应用:文章推测这些在亚利桑那州生产的 A16 芯片可能会用于即将推出的 iPad 或下一代 iPhone SE。

地缘政治影响:这一发展符合美国政府的《CHIPS法案》,旨在增强国内半导体制造能力并减少对外国供应商的依赖。

timculpan.substack.com/p/apple-mob…

Tor 还能安全使用吗?

  • 解决问题: Tor 项目承认一则新闻报道引发的担忧,该报道详细介绍了执法部门的一次攻击,该攻击成功使现已停用的 Ricochet 应用程序的用户去匿名化。他们强调,这起事件涉及一款过时的应用程序,并不表明当前的 Tor 浏览器存在任何漏洞。
  • Tor 浏览器保持安全: Tor 项目向用户保证 Tor 浏览器可以安全使用,并继续提供安全和匿名的网络访问。
  • • **了解攻击:**此次攻击针对的是特定的较旧通信工具 (Ricochet),并利用了该应用程序特有的漏洞。它不涉及 Tor 网络本身的任何入侵或漏洞利用。
  • Tor 的攻击防御措施:
    • 网络健康团队: 专门的团队积极监控 Tor 网络的可疑活动并识别潜在的恶意中继。
    • 目录权威投票: 目录权威负责维护 Tor 中继列表,投票删除被标记为有问题的中继。
  • 增强网络多样性的努力: Tor 项目认识到多样化中继网络的重要性,并积极致力于鼓励更多个人和组织贡献中继的举措。 其中包括:
    • Tor 大学挑战赛: 旨在让学生参与到 Tor 网络的贡献中的项目。
    • Tor 网络健康 API: 该工具为开发人员提供有关 Tor 网络健康状况的数据,使他们能够构建支持网络增长和安全的应用程序。
  • 持续改进: Tor 项目强调其对持续开发和改进的承诺。他们鼓励用户保持 Tor 浏览器软件的更新,并遵循安全浏览的最佳实践。

blog.torproject.org/tor-is-stil…

为什么 wordfreq 不会更新

  • 生成式人工智能污染: 大型语言模型 (LLM)(如 ChatGPT)正在生成大量文本,这些文本模仿人类语言,但缺乏真正的含义。这种“混乱”会扭曲词频数据,使其无法进行准确分析。Speer 引用了 ChatGPT 过度使用“delve”一词的例子,人为地夸大了其频率。
  • 数据访问问题:
    • • 由于使用条款的限制,Twitter 数据始终存在问题。现在,随着 Twitter 转型为 X 并关闭公共 API,访问有价值的对话数据已不可能。
    • • Reddit 也停止提供免费数据档案,现在收取高昂的费用,使得大多数研究人员无法使用。
  • 道德问题: Speer 表示,自己对于在日益被生成式人工智能主导的领域做出贡献感到不安。她批评该行业依赖 OpenAI 和谷歌等强大公司控制的封闭数据集。她担心文本收集项目可能被用来创建利用作家作品的剽窃工具。
  • 转移焦点: Speer 不再在语料库语言学中找到同样的成就感,因为该领域在很大程度上被生成式人工智能所掩盖。她想远离那些她认为有害和不道德的技术。

github.com/rspeer/word…

TIPS: LinkedIn 正在使用每个人的内容来训练他们的 AI 工具

Llama 3.1 Omni 模型

  • LLaMA-Omni:支持语音的大型语言模型
    • • LLaMA-Omni 建立在 Llama-3.1-8B-Instruct 之上,后者是一种基于文本的强大大型语言模型,以高质量响应而闻名。
    • • 它旨在实现与用户的无缝、自然的语音交互。
  • 主要特点:
    • 低延迟: LLaMA-Omni 实现了极低的延迟(低至 226 毫秒),使对话感觉自然且响应迅速。
    • 同时生成文本和语音: 它可以对口头指令生成文本和语音响应,提供更丰富的用户体验。
    • 高效训练: 仅使用 4 块 GPU,该模型便可在 3 天内完成训练,证明了其效率。
  • 技术组件:
    • 语音编码器: 使用 Whisper-large-v3 模型进行准确的语音到文本的转换。
    • 文本生成: 利用 Llama-3.1-8B-Instruct 模型生成连贯且上下文相关的文本响应。
    • 语音合成: 采用基于单元的 HiFi-GAN 声码器(从 Facebook AI 下载)来产生高质量的合成语音。
  • 入门:
    • • 用户需要下载Llama-3.1-8B-Omni模型、Whisper-large-v3和HiFi-GAN声码器。
    • • 提供 Python 脚本来运行 Gradio 网络服务器,以进行交互式演示和语音指令文件的本地推理。
  • • **引用:**如果他们的研究有用,作者鼓励引用:Fang 等人,“LLaMA-Omni:与大型语言模型的无缝语音交互”(arXiv 预印本 arXiv:2409.06666)。

github.com/ictnlp/LLaM…

Moshi:用于实时对话的语音文本基础模型

  • Moshi:实时语音转文本基础模型Moshi 是一个功能强大的开源语音转文本基础模型,专为实时对话应用而设计。它基于 Transformer 架构构建,并在大量文本和音频数据集上进行训练。
  • 主要特点:
    • 实时性能: Moshi 针对低延迟进行了优化,可以近乎即时地转录口语。
    • 高精度: 即使在具有挑战性的声学环境中,该模型在转录语音方面也能实现令人印象深刻的准确性。
    • 开源和可定制: Moshi 的代码和预先训练的权重都是免费提供的,允许开发人员针对特定用例或语言对模型进行微调。
  • • **推理选项:**Moshi 通过 Python 和 Rust 实现提供灵活的推理选项:* **Python:**使用 PyTorch 进行推理并提供命令行界面 ( moshi.client) 进行直接交互。* **Rust:**使用moshi-backend二进制文件和可选的 CUDA 或 Metal 加速。它还包括一个可在 访问的 Web UI localhost:8998
  • 量化效率:-qMoshi 支持量化,以减小模型大小并提高推理速度。您可以通过调整Python 中的标志或在 Rust 中使用不同的配置文件(config.jsonvs. )来选择 4 位 (q4) 和 8 位 (q8) 量化级别config-q8.json
  • 增强体验的 Web UI: Web UI 提供了一个与 Moshi 交互的用户友好界面,并包含回声消除等附加功能,以进一步提高音频质量。
  • 客户端选项:除了 Web UI,您还可以使用 Python 和 Rust 的命令行客户端: * Rust 命令行: cargo run --bin moshi-cli -r -- tui --host localhost *带有 PyTorch 的 Python: python -m moshi.client
  • • **许可和引用:**Moshi 的代码是根据 MIT 和 Apache 许可证发布的,而模型权重是根据 CC-BY 4.0 许可证提供的。如果您在工作中使用 Moshi,请引用所提供的研究论文。

github.com/kyutai-labs…

Qwen2.5:开源7B参数语言模型发布,增强推理和工具调用能力

  • • **介绍 Qwen2.5:**这是一套涵盖语言、视觉语言和音频语言领域的开源基础模型。
  • Qwen2.5亮点:
    • • **多语言功能:**支持超过 10 种语言,包括英语、中文、日语、韩语、德语、法语、西班牙语、葡萄牙语、俄语和阿拉伯语。
    • • **针对指令遵循进行微调:**旨在有效理解和响应用户指令。
    • • **增强推理能力:**通过数据缩放技术提高推理能力。
  • 模型大小和可用性: Qwen2.5 有多种尺寸:7B、13B 和 30B 参数。这些模型可在 Hugging Face 上供公众使用。
  • 工具调用支持:
    • • Qwen2.5 与 vllm(0.6 或更高版本)、Ollama 和 Hugging Face Transformers 无缝集成,实现工具调用功能。
    • • 这使得模型可以与外部工具和 API 进行交互,从而扩展其文本生成之外的功能。
  • 社区支持: Qwen 感谢支持其开发的众多团队和个人的贡献,包括参与微调、量化、部署、API 平台、本地运行环境、代理和 RAG 框架以及评估的团队和个人。
  • 未来方向: Qwen 团队计划:
    • • 将不同的模态(语言、视觉语言、听觉语言)整合到单一模型中,实现端到端的信息处理。
    • • 利用受 o1 等模型启发的强化学习技术进一步增强推理能力。
  • 引用:
    • • Qwen2.5 的技术报告即将发布,在此期间,您可以引用 Qwen2 论文作为参考。

qwenlm.github.io/blog/qwen2.…

使用 LLVM 的高性能、零开销、可扩展的 Python 编译器

  • Codon:高性能 Python 编译器Codon 是一款编译器,旨在将 Python 代码转换为高效的机器代码,利用 LLVM 编译器基础架构进行优化。它旨在消除通常与 Python 等解释型语言相关的性能开销。
  • 主要特点:
    • 零开销: 与传统的 Python 解释器相比,Codon 致力于实现零运行时开销。
    • 可扩展性: 编译器的架构允许扩展和定制,使开发人员能够根据特定需求进行定制。
    • LLVM 集成: Codon 利用 LLVM(低级虚拟机)进行代码生成和优化,受益于 LLVM 强大的分析和转换功能。
  • 性能增强:
    • 优化: Codon 在编译过程中应用了各种优化,从而提高了执行速度。
    • 并行性: 编译器支持 OpenMP 指令(@par注释),使开发人员能够并行化循环并利用多核处理器来提高性能。
  • GPU 编程支持:
    • CUDA 内核: Codon 允许使用 CUDA 语法编写 GPU 内核,促进 NVIDIA GPU 上的高性能计算。
    • @gpu.kernel装饰器: 此装饰器将函数标记为 GPU 内核,简化了将代码卸载到 GPU 的过程。
  • 示例用例:
    • 斐波那契数列: 提供的示例演示了如何编译启用了优化的斐波那契数列生成器,展示了 Codon 生成高效代码的能力。
    • 素数计数: 素数计数示例说明了如何@par使用注释来并行化循环以便在多核系统上更快地执行。
    • 曼德布洛特集: 曼德布洛特集计算示例凸显了Codon的GPU编程能力,能够在GPU上高效计算复杂的数学运算。
  • 文档和社区:
    • • docs.exaloop.io 提供了全面的文档,提供有关 Codon 的功能、用法和示例的深入信息。
    • • 该项目拥有一个充满活力的社区,GitHub 上有超过 14k 个星,表明了其受欢迎程度和活跃的开发。

github.com/exaloop/cod…