Home avatar

Daily Deep Think

发布的内容仅代表作者个人观点,不代表任何组织、公司或机构的立场

特朗普与纽约新市长的对决:一场政治风暴的序幕

在公开场合,特朗普总统已连续数周诋毁佐兰·马姆达尼,称其为极端分子、共产主义者,是纽约市的威胁。 他还坚称自己比 34 岁的马姆达尼“好看多了”。

但据两名要求匿名透露总统言论的人士称,私下里,特朗普称这位纽约市候任市长是有才华的政治人士,认为他机敏善辩。

PDF2Markdown - 大型PDF文档智能文章提取工具完全指南

PDF2Markdown - 大型 PDF 文档智能文章提取工具

Python Version Code Style Type Checking License

PDF2Markdown 是一个专门用于处理大型扫描件 PDF 文件的智能内容提取工具。结合传统 OCR 技术与现代 AI 大模型,智能提取文档中的纯文章内容,自动过滤图片、表格等非文章元素。完美支持中英文混合文档处理。

Docker安装PostgreSQL+pgvector完整教程:AI向量数据库快速部署指南

🐘 在 Docker 中安装部署 PostgreSQL + pgvector

本文介绍如何在 Docker Compose 环境中快速部署带有 pgvector 扩展的 PostgreSQL 数据库, 以便在本地或开发环境中支持向量检索与 AI 应用(如 LangChain、RAG、语义搜索等)。

CPU/GPU 与大模型训练

AI 教程: CPU/GPU 与大模型训练

这是一份高浓缩资料:结构清晰、要点到位,涵盖 CPU/GPU 基础、张量与数值精度、CUDA 与 PyTorch 实操、硬件选型、常见问答与排错清单。


  • CPU vs GPU:CPU 擅长通用/顺序处理;GPU 擅长大规模并行(矩阵/向量)。
  • 大模型必备 GPU:训练/推理核心是矩阵乘和并行化,GPU 的高并发 + 高带宽显存恰好匹配。
  • 张量与精度:一切数据 → 张量;精度(FP16/FP8)与量化(INT8/INT4)是速度/显存与效果之间的权衡。
  • PyTorch 上卡口诀device = "cuda" if ...; model.to(device); data.to(device)
  • 选卡看显存:先显存,再带宽/算力;生产尽量用满血高质量模型或云端托管 API。

维度CPUGPU
架构少核、复杂控制流海量小核、SIMT 并行
擅长分支/系统任务/小规模计算矩阵乘、卷积、注意力、图形渲染
任务模型时间片轮转、低延迟切换批处理&吞吐导向
典型用法业务逻辑、调度、I/O训练/推理主算子(GEMM、Conv 等)
  • CPU = 老专家:思考缜密、一次做一件事快切换。
  • GPU = 千军万马:海量士兵同时干活,适合“同构小任务”的并行。
flowchart LR
    subgraph CPU["CPU(顺序/少核)"]
      A1[任务1-片段A] --> A2[任务2-片段B] --> A3[任务3-片段C]
    end
    subgraph GPU["GPU(并行/多核)"]
      B1[元素1计算]:::p
      B2[元素2计算]:::p
      B3[元素3计算]:::p
      B4[元素4计算]:::p
    end
    classDef p fill:#e9f5ff,stroke:#3b82f6,stroke-width:1px;

  • 0D:标量 3.14
  • 1D:向量 [1,2,3]
  • 2D:矩阵(如 3×3 表)
  • 3D+:仍称张量(如 batch×channel×height×width

图像例子:一批 32 张 224×224 RGB 图 → 32×3×224×224(或 N×H×W×C,视框架而定)。

RAG系统完全指南——从零搭建本地检索增强生成系统

用 LangChain + Ollama + pgvector 搭建本地 RAG:从 0 到 1 的完整实战(含 uv 依赖管理 & 面试指南)

本文是可直接落地的 Markdown 文档。按文档自上而下执行即可从零搭建出一个本地 RAG(检索增强生成)系统,并理解关键概念与代码。所有核心脚本都附带中文注释,便于学习与面试复盘。