用户可以通过进入设置>连接或无线和网络找到NFC选项。
部分手机在快速设置中也提供NFC开关。
了解NFC的具体位置,有助于用户更方便地进行移动支付和数据传输,提高手机使用效率。
NFC(近场通信)技术近年来在智能手机中得到了广泛应用,成为了移动支付、数据传输和智能设备控制的重要手段。
对于科技爱好者和手机小白用户来说,了解NFC的定位和使用技巧,不仅能提升日常生活的便利性,还能更好地利用手机的功能。
本文将为您详细介绍如何快速定位手机中的NFC功能,并提供实用的使用技巧。

工具原料:
系统版本:Android 12 / iOS 15
品牌型号:Samsung Galaxy S21 / iPhone 13
软件版本:Samsung Pay / Apple Wallet
NFC(Near Field Communication)是一种短距离无线通信技术,允许设备在相互靠近的情况下进行数据交换。
NFC的起源可以追溯到20世纪80年代的RFID(射频识别)技术,经过多年的发展,NFC于2002年正式被定义为一种标准。
随着智能手机的普及,NFC技术逐渐被应用于移动支付、电子票务、智能家居等多个领域。

在中国,NFC技术的应用也在不断增长。
2014年,支付宝和微信支付相继推出了NFC支付功能,使得用户可以通过手机轻松完成支付。
如今,越来越多的手机品牌开始支持NFC功能,用户可以通过简单的设置和操作,享受便捷的生活体验。
对于大多数用户来说,找到手机中的NFC功能并不复杂。
以下是针对不同品牌手机的定位方法:
1. **Samsung Galaxy S21**:在主屏幕上,向下滑动打开通知栏,点击右上角的设置图标。
在设置菜单中,选择“连接”,然后找到“NFC和支付”选项。
确保NFC开关处于开启状态。
2. **iPhone 13**:iPhone的NFC功能默认开启,用户可以通过“设置”>“钱包与Apple Pay”来管理相关设置。
用户还可以通过NFC标签或设备进行快速支付。
3. **其他品牌手机**:大多数Android手机的NFC设置都可以在“设置”>“连接”或“无线和网络”中找到。
用户只需搜索“NFC”即可快速定位。
NFC的应用场景非常广泛,以下是一些实用的使用技巧:
1. **移动支付**:通过NFC功能,用户可以在支持NFC支付的商店中,使用手机完成支付。
只需将手机靠近支付终端,输入密码或使用指纹识别,即可完成交易。
以Samsung Pay和Apple Wallet为例,用户可以将银行卡信息添加到应用中,方便快捷地进行支付。

2. **数据传输**:NFC还可以用于快速传输文件和联系人信息。
用户只需将两部支持NFC的手机靠近,即可实现数据的快速传输。
例如,在Android手机中,用户可以通过“Android Beam”功能,将照片、视频等文件分享给朋友。
3. **智能设备控制**:许多智能家居设备也支持NFC功能,用户可以通过手机轻松控制这些设备。
例如,用户可以通过NFC标签设置家中的智能灯光,轻松实现开关控制。
4. **电子票务**:在一些公共交通系统中,用户可以使用NFC功能购买和验证电子票。
只需将手机靠近读卡器,即可完成进出站操作,省去排队购票的麻烦。
除了上述应用场景,NFC技术的未来发展也值得关注。
随着5G技术的普及,NFC将与其他无线通信技术相结合,带来更快的传输速度和更广泛的应用场景。
此外,NFC在物联网(IoT)中的应用也将不断扩展,用户将能够通过手机控制更多的智能设备,享受更加智能化的生活体验。
在安全性方面,NFC技术也在不断提升。
许多手机支付应用都采用了多重身份验证机制,确保用户的支付安全。
同时,NFC的短距离特性也降低了被攻击的风险,使得用户在使用时更加安心。
NFC在手机哪里能找到详解手机NFC功能及使用方法
NFC(近场通信)是一种短距离无线通信技术,广泛应用于手机支付、数据传输和设备配对等场景。
随着智能手机的普及,NFC功能逐渐成为用户选择手机的重要考虑因素之一。
本文将详细介绍NFC在手机中的位置、功能及使用方法,帮助用户更好地利用这一技术。
工具原料:系统版本:Android 12及以上、iOS 15及以上品牌型号:Samsung Galaxy S22、Apple iPhone 13、Xiaomi 12软件版本:Samsung Pay、Apple Pay、Mi Pay(最新版本)一、NFC功能概述NFC是一种短距离无线通信技术,通常在10厘米以内进行数据交换。
它的工作原理是通过电磁场实现设备间的通信。
NFC的应用场景非常广泛,包括但不限于移动支付、电子票务、智能门锁、数据传输等。
近年来,随着移动支付的普及,NFC的使用频率显著增加。
二、如何找到手机中的NFC功能在大多数现代智能手机中,NFC功能通常可以在设置中找到。
以下是不同品牌手机查找NFC功能的步骤:1. **Samsung Galaxy S22**:进入“设置”>“连接”>“NFC和支付”,在这里可以开启或关闭NFC功能。
2. **Apple iPhone 13**:iPhone的NFC功能是内置的,用户无需手动开启。
可以通过“钱包”应用进行NFC支付。
3. **Xiaomi 12**:进入“设置”>“连接与共享”>“NFC”,在这里可以找到相关设置。
在这些设置中,用户可以开启或关闭NFC功能,并管理相关的支付应用。
三、NFC的使用方法NFC的使用方法主要体现在以下几个方面:1. **移动支付**:用户可以将银行卡或信用卡添加到手机的支付应用中(如Samsung Pay、Apple Pay、Mi Pay),在支持NFC支付的商家处,只需将手机靠近支付终端即可完成支付。
2. **数据传输**:通过NFC,用户可以快速分享联系人、照片和文件等。
以Samsung Galaxy S22为例,用户只需打开NFC功能,选择要分享的内容,然后将两部手机靠近,即可完成数据传输。
3. **配对设备**:NFC还可以用于快速配对蓝牙设备,如耳机和音响。
用户只需将手机靠近设备,即可完成配对,省去繁琐的手动设置。
拓展知识:NFC技术的优势在于其便捷性和安全性。
由于NFC的通信距离非常短,通常在4厘米以内,这使得数据交换更加安全。
此外,NFC还支持加密技术,进一步保护用户的隐私和财务信息。
除了移动支付,NFC还可以用于智能家居控制、公共交通票务、身份验证等领域。
随着物联网的发展,NFC的应用前景将更加广阔。
尤其是在 Coding Agent 爆发之后,算力问题变得前所未有地尖锐。
Claude Code、Codex、Cursor 等产品正在把 AI 从「问答工具」变成「持续运行的软件协作者」,单次会话轻松突破 50K tokens,系统负载转向了更极端、更复杂的智能体负载。
最近有关算力的大新闻层出不穷。
今天的最新消息:马斯克的 SpaceX 与 Anthropic 宣布达成了重磅协议,超过 22 万块英伟达 GPU 将为 Anthropic 所用。
而 Anthropic 对与 SpaceX 合作开发未来的太空算力体系「表示有兴趣」。
在如此庞大的算力需求下,除了开源还有节流。
也是今天的最新消息:OpenAI 发布了多路径可靠连接 (MRC),可帮助大型 AI 训练集群更快、更可靠地运行,并减少 GPU 时间的浪费。
我们知道,即便只是单 GPU 吞吐率上的微小提升,一旦应用到生产级集群中,也能够在服务持续增长需求的同时,节约相当可观的算力。
来自 LightSeek Foundation 的一个小团队,在两个月时间内打造了一个全新的,号称「光速」的大模型推理引擎 TokenSpeed。
这一引擎拥有 TensorRT LLM 级别的性能,vLLM 级别的易用性。
并且拥有 NVIDIA Blackwell 上最快的 MLA 注意力内核。
一经发布,TokenSpeed 就受到了英伟达发推文力荐。
目前,该引擎已经开源。
让我们参阅其技术博客,来深入了解「光速」引擎的技术细节。
博客标题:TokenSpeed: A Speed-of-Light LLM Inference Engine for Agentic Workloads 博客链接:https://lightseek.org/blog/lightseek-tokenspeed.html Github 链接:https://github.com/lightseekorg/tokenspeed TokenSpeed 技术简介 TokenSpeed 从第一性原理出发,专门为智能体推理场景设计。
它为智能体负载提供接近「光速级」的推理能力,核心包括:基于编译器的并行建模机制、高性能调度器、安全的 KV 资源复用约束、支持异构加速器的可插拔分层 kernel 系统,以及用于低开销 CPU 侧请求入口的 SMG 集成。
建模层采用本地 SPMD(Single Program, Multiple Data,单程序多数据)设计,在性能与易用性之间取得平衡。
TokenSpeed 允许开发者在模块边界指定 I/O placement 注解。
随后,一个轻量级静态编译器会在模型构建过程中自动生成所需的 collective operation,从而无需手动实现通信逻辑。
TokenSpeed 调度器将控制平面(control plane)与执行平面(execution plane)解耦。
控制平面使用 C++ 实现,并被构建为一个有限状态机(FSM),结合类型系统,在编译期而非运行期强制执行安全资源管理,包括 KV cache 状态转移与使用。
请求生命周期、KV cache 资源以及重叠执行时序,都通过显式 FSM 状态迁移与所有权语义进行表示,因此系统正确性并非依赖约定,而是由一个可验证的控制系统来保证。
执行平面则使用 Python 实现,以保持开发效率,使研究人员与工程师能够更快进行功能迭代,并降低整体认知负载。
TokenSpeed 的 kernel 层将 kernel 从核心引擎中解耦,并将其视为一级模块化子系统。
它提供了可移植的公共 API、集中的注册与选择机制、组织良好的实现结构、面向异构加速器的可扩展插件机制、经过整理的依赖体系,以及统一的快速迭代基础设施。
与此同时,团队还针对 NVIDIA Blackwell 架构进行了大量性能优化。
例如,他们构建了当前智能体负载场景下速度最快的 MLA(Multi-head Latent Attention,多头潜在注意力)kernel 之一。
在 decode kernel 中,由于部分场景下「num_heads」较小,团队通过对「q_seqlen」与「num_heads」进行分组,以更充分利用 Tensor Core 的计算能力。
而 binary prefill kernel 则包含了经过精细调优的 softmax 实现。
目前,TokenSpeed MLA 已被 vLLM 采用。
TokenSpeed 性能预览 Coding Agents(编码智能体)带来了异常严苛的推理工作负载,上下文通常会超过 50K tokens,对话也经常跨越数十轮。
大多数公开基准测试并不能充分捕捉这种行为。
研发团队与 EvalScope 团队一起,基于 SWE-smith 轨迹对 TokenSpeed 进行评估,这些轨迹密切反映了生产环境中 Coding Agents 的流量情况。
由于生成速度对 Agent 的用户体验至关重要,因此,团队的目标是在维持单用户 TPS(每秒 token 数)下限的同时,最大化单 GPU 的 TPM(每分钟 token 数)—— 通常是 70 TPS,有时是 200 TPS 或更高。
此外,研发团队针对 TensorRT-LLM(目前 NVIDIA Blackwell 平台上的最高水平)对这一设计进行了基准测试,并在认为针对 Agentic workloads 存在更好权衡的地方,采取了与之不同的设计方案。
下图展示了在不同部署配置下(无 PD 解耦),TokenSpeed 与 TensorRT-LLM 的 Kimi K2.5 性能帕累托曲线(Pareto curves)。
每条曲线都以 TPS/User(横轴)作为延迟指标,以 TPM/GPU(纵轴)作为吞吐指标,并通过扫描并发数绘制而成。
对于 Coding Agents(高于 70 TPS/User),最佳配置是 Attention TP4 + MoE TP4。
在这一配置下,TokenSpeed 在整个帕累托前沿上均优于 TensorRT-LLM:在最低延迟场景下(batch size 1)大约快 9%,在 100 TPS/User 附近吞吐量大约高 11%。
团队表示,他们的核心优化之一是 TokenSpeed MLA。
下图对比了 TokenSpeed MLA 与 TensorRT-LLM 的 MLA,后者是目前 NVIDIA Blackwell 上的 SoTA。
可以看出来,优化后的二进制版本预填充内核(prefill kernel),使用 NVIDIA 内部旋钮来微调 softmax 实现,在 Coding Agents 的五种典型预填充工作负载(带长前缀 KV cache 的 prefill)中,都超过了 TensorRT-LLM 的 MLA。
解码内核则将查询序列轴折叠进头轴,以更好地填充 BMM1 的 M tile,从而提升 Tensor Core 利用率。
结合其他优化,在带有 speculative decoding 的典型解码工作负载中(batch size 为 4、8、16,且带长前缀 KV cache),这使得相对于 TensorRT-LLM 来说,延迟几乎降低了一半。
最后,研发团队也表示,该项目于 2026 年 3 月中旬启动开发,虽然目前展示了惊人的性能,但仍有大量底层代码(如 PD 分离、KV 存储等)正在合并和完善中,接下来将继续推进。
从上述性能表现来看,不难看出,TokenSpeed 的出现旨在通过更现代化的架构设计,打破传统推理框架在易用性与极致性能之间的平衡点,为大规模 Agent 部署提供了一个高性能、开源的底座。
而英伟达的力荐,也说明推理引擎正在成为 Agent 时代基础设施竞争的一个新焦点。
更多信息,请参阅原博客! 参考链接: https://x.com/lightseekorg/status/2052048105412141376 https://x.com/NVIDIAAI/status/2052061195381911806