首页 > 电脑 > AI
x

怎么安装deepseek到手机?

AI 2026-02-06 菜科探索 +
简介:如何安装deepseek到手机_电子琴架怎么按装呢?最近引发大家的关注,相信大家都想知道这件事会有怎么样的发展?下面就让小编为大家介绍一下,一起来看看吧。

如何安

【菜科解读】

如何安装deepseek到手机_电子琴架怎么按装呢?最近引发大家的关注,相信大家都想知道这件事会有怎么样的发展?下面就让小编为大家介绍一下,一起来看看吧。


如何安装deepseek到手机

要在手机上安装DeepSeek,您可以按照以下步骤操作:

### 安卓系统

1. **通过应用商店安装**:

- 打开您的安卓应用商店(如华为应用商店、小米应用商店等)。

- 在搜索框中输入“DeepSeek”。

- 找到DeepSeek应用后,点击“下载”按钮。

- 按照应用商店的提示,完成安装过程。

2. **从官方网站下载安装包**:

- 访问DeepSeek的官方网站,下载适合您手机系统的安装包。

- 安装下载好的APK文件,按照提示完成安装。

### iOS系统

1. **通过App Store安装**:

- 打开App Store。

- 在搜索框中输入“DeepSeek”。

- 找到DeepSeek应用后,点击“获取”或“下载”按钮。

- 按照App Store的提示,完成安装过程。

### 命令行方式安装(适用于有一定技术基础的用户)

如果您希望通过命令行方式安装DeepSeek,可以按照以下步骤操作:

1. **准备环境**:

- 安卓用户请在应用商店搜索并下载Termux,iOS用户则在App Store下载iSH Shell。

2. **下载和准备模型**:

- 从DeepSeek的官方网站下载适合手机运行的轻量版DeepSeek模型。

- 将下载好的DeepSeek模型传到手机,并放到一个文件夹里。

3. **安装依赖库**:

- 打开Termux/iSH Shell,输入命令安装Python和相关依赖库。

例如:

```bash

pkg install python

pip install -r requirements.txt

```

4. **运行模型**:

- 切换到模型所在的目录,并运行模型。

例如:

```bash

cd /path/to/deepseek

python run.py

```

5. **访问AI功能**:

- 打开手机浏览器,输入`localhost:5000`(端口号根据模型设置调整),即可访问DeepSeek的AI功能。

### 注意事项

- 在安装前,请确保您下载的是与手机系统兼容的DeepSeek版本。

- 在安装过程中,可能需要授予DeepSeek某些权限(如访问存储、使用摄像头等)。

请按照提示进行授权,以确保DeepSeek的正常运行。

- 为了获得最佳的使用体验,请定期检查并更新DeepSeek应用,并保持手机系统的更新以确保应用的兼容性

谷歌新论文把内存股价干崩了!KV cache压缩6倍,“谷歌的DeepSeek时刻”

广告 谷歌新论文把内存股价干崩了!KV cache压缩6倍,“谷歌的DeepSeek时刻” 10:00 广告 广告 广告 了解详情 > 会员跳广告 首月9.9元 秒后跳过广告 开通搜狐视频黄金会员,尊享更高品质体验! 1080P及以上画质仅为黄金会员专享> 开通/续费会员 抱歉,您观看的视频加载失败 请检查网络连接后重试,有话要说?请点击 我要反馈>> 正在切换清晰度... 播放 按esc可退出全屏模式 00:00 00:00 00:13 广告 只看TA 高清 倍速 剧集 字幕 下拉浏览更多 5X进行中 炫彩HDRVIP尊享HDR视觉盛宴 超清 720P 高清 540P 2.0x 1.5x 1.25x 1.0x 0.8x 50 哎呀,什么都没识别到 反馈 循环播放 跳过片头片尾 画面色彩调整 AI明星识别 视频截取 跳过片头片尾 是 | 否 色彩调整 亮度 标准 饱和度 100 对比度 100 恢复默认设置 关闭 复制全部log 梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 学术会议ICLR,居然和美光和西部数据大跌扯上关系了? 两家存储芯片巨头股价大跌,没有财报暴雷,没有供应链断裂,只是谷歌展示了一篇即将在ICLR 2026正式亮相的论文。

谷歌研究院推出TurboQuant压缩算法,把AI推理过程中最吃内存的KV cache压缩至少6倍,精度零损失。

市场的解读简单粗暴,长上下文AI推理以后不需要那么多内存了,利空内存。

网友纷纷表示,这不就是美剧《硅谷》里的Pied Paper? Pied Piper是2014年开播的HBO经典美剧《硅谷》里的虚构创业公司,核心技术就是一种“近乎无损的极限压缩算法”。

2026年,类似的算法在现实世界居然成真了。

KVCache量化到3 bit 要理解TurboQuant为什么重要,先得理解它解决的是什么问题。

AI大模型推理时处理过的信息会临时存在KV Cache,方便后续快速调用,不用每次从头算起。

问题是随着上下文窗口越来越长,内存消耗急剧膨胀。

KV cache正在成为AI推理的核心瓶颈之一。

传统的解决思路是向量量化,把高精度数据压成低精度表示。

但尴尬的是,大部分量化方法本身也需要存储额外的“量化常数”,每个数字要多占1到2个bit。

TurboQuant用两个改动把这个额外开销干到了零。

PolarQuant(极坐标量化): 不用传统的X、Y、Z坐标描述数据,转而用极坐标”距离+角度”。

谷歌团队发现,转换后角度的分布非常集中且可预测,根本不需要额外存储归一化常数。

就像把“往东走3个路口,往北走4个路口”压缩成”朝37度方向走5个路口”。

信息量不变,描述更紧凑,还省掉了坐标系本身的开销。

QJL(量化JL变换): 把高维数据投影后压缩成+1或-1的符号位,完全不需要额外内存。

TurboQuant用它来消除PolarQuant压缩后残留的微小误差。

两者组合后PolarQuant先用大部分bit容量捕捉数据的主要信息,QJL再用1个bit做残差修正。

最终实现3-bit量化,无需任何训练或微调,精度零损失。

8倍加速,Benchmark全线拉满 谷歌团队在Gemma和Mistral等开源模型上,跑了主流长上下文基准测试,覆盖问答、代码生成、摘要等多种任务。

在“大海捞针”任务上,TurboQuant在所有测试中拿下完美分数,同时KV cache内存占用缩小了至少6倍。

PolarQuant单独使用,精度也几乎无损。

速度提升同样显著。

在英伟达H100 GPU上,4-bit TurboQuant计算注意力分数的速度,比32-bit未量化版本快了8倍。

不只是省内存,还更快了。

在向量搜索领域,TurboQuant同样超越了现有最优量化方法的召回率,而且不需要针对具体数据集做调优,也不依赖低效的大码本。

AI内存的DeepSeek时刻? Cloudflare CEO评价“这是谷歌的DeepSeek时刻”。

他认为DeepSeek证明了用更少的资源也能训出顶尖模型。

TurboQuant的方向类似,用更少的内存,也能跑同样质量的推理。

谷歌表示,TurboQuant除了可以用在Gemini等大模型上,同时还能大幅提升语义搜索的效率,让谷歌级别的万亿级向量索引查询更快、成本更低。

不过TurboQuant目前还只是一个实验室成果,尚未大规模部署。

更关键的是,它只解决推理阶段的内存问题。

而AI训练环节完全不受影响。

论文地址: https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/ 参考链接: [1]https://x.com/eastdakota/status/2036827179150168182?s=20 — 欢迎AI产品从业者共建 —

DeepSeekr1版本和v3版本有什么分别?DeepSeekr1版本和v3版本的重要分别介绍

  DeepSeekr1版本和v3版本有什么区别?DeepSeek作为一款当前热门的AI人工智能应用受到了海内外用户的一致好评,而DeepSeek应用两个版本,其中R1版本是一个推理优先的模型,专注于处理复杂的逻辑推理任务,而V3版本则是一个通用自然语言处理模型,重点在于高效处理多模态任务和长文本处理,这两者应用的应用场景范围完全不一样,那么具体都有哪些区别呢,下面这篇文章将为你们详细介绍说明。

一、模型定位与核心能力:  DeepSeek V3:定位为通用自然语言处理模型,采用混合专家(MoE)架构,参数总量达6710亿,但每次激活的参数仅为370亿,以优化计算效率。

其优势在于高效处理多模态任务(文本、图像、音频等)和长文本处理能力(支持128K上下文窗口),适用于内容生成、多语言翻译、智能客服等场景。

  DeepSeek R1:专注于复杂逻辑推理任务,基于强化学习(RL)训练,无需大量监督微调(SFT)。

通过动态门控机制优化专家调度,提升逻辑推理能力,擅长数学证明、代码生成、决策优化等场景。

其独特之处在于输出答案前展示“思维链”(Chain-of-Thought),增强透明度和可信度。

二、架构与训练方法  DeepSeek V3:采用混合专家架构(MoE),通过深度专家路由实现负载均衡,训练数据覆盖14.8万亿token,采用FP8混合精度优化,总训练成本仅为557.6万美元。

  DeepSeek R1:基于强化学习范式,采用群体相对策略优化(GRPO)提升训练稳定性,完全摒弃监督微调,直接通过强化学习激发推理能力,训练效率更高。

三、性能表现与应用场景  DeepSeek V3:在多语言处理、长文本生成、高吞吐量代码补全等方面表现优秀,适用于大规模自然语言处理任务,如对话式AI、多语言翻译和内容生成等。

  DeepSeek R1:在复杂数学问题、代码生成和逻辑推理任务中表现出色,适用于学术研究、问题解决应用程序和决策支持系统等需要深度推理的任务。

怎么安装deepseek到手机?

点击下载文档

格式为doc格式