数字图像处理

傅立叶变换

数字图像处理——傅立叶变换 欧拉公式 对于一个复平面(对于欧几里得平面而言,把实数作为x轴,虚数作为y轴)

EDITOR'S SELECTION

推荐文章

文章列表

  • 全部
  • 多模态2
  • GAN2
  • 数组1
  • GPT1
  • 特征点检测3
  • 树的遍历1
  • transformer3
  • 注意力机制1
  • 多视角几何3
  • 相机模型1
  • 图像变换1
  • SpringCloud1
  • 并查集1
  • 变量1
  • 类与对象3
  • 博弈论1
  • 形态学处理1
  • 彩色图像处理1
  • 回溯算法4
  • 概率图模型2
  • 双指针3
  • 优化算法1
  • 小波变换3
  • 聚类算法3
  • 集成学习1
  • 贪心算法7
  • 多分辨率技术1
  • 动态规划13
  • 图像复原1
  • 图像去噪3
  • 频率域滤波5
  • 特征工程1
  • 模型优化1
  • 空间滤波3
  • 数学符号1
  • 分词处理1
  • 线性判别5
  • 矩阵论9
  • 灰度变换2
  • 分治法6
  • 概率论与数理统计1
  • Prim1
  • 直方图处理3
  • 贝叶斯学习1
  • 算法分析3
  • 计算机视觉

    DLT 直接线性变换

    DLT 直接线性变换 对于单应变换 x_i^{\prime}=Hx_i,易知两图中对应的特征点,如何找出所需要的H,为了解决这个问题,可以采用DLT算法

  • 深度学习

    Swin Transformer 浅析

    Swin Transformer 浅析 引言 因为ViT无法实现CNN中的层次化构建以及局部信息,由此微软团队提出了Swin Transformer来解决该问题。

  • 深度学习

    Vision Transformer (ViT) 浅析

    Vision Transformer (ViT) 概述 为了将Transformer引入视觉任务,Google团队开发出了Vision Transformer (ViT),其中ViT模型以及变种在图像分类任务上一骑绝尘

  • 深度学习

    GPT1-3 浅析

    GPT 1-3浅析 GPT 1 在模型架构上,GPT-1基于Transformer构造,这是因为与其他卷积神经网 络或者循环神经网络相比,Transformer提供了效率更高的方法来处理文本 中的长期依赖关系。 预训练技术:GPT-1使用了一种称为“生成式预训练”(Generative Pre-Tr

  • 计算机视觉

    Harris 角点检测器

    Harris 角点检测器 其中在图像中满足以下要求的点被称为局部特征点 可重复性和正确性: 对平面内的几何变换(旋转、尺度)不变 对平面外的几何变化(仿射)鲁

  • 计算机视觉

    LoG 斑点检测

    LoG 斑点检测 LoG 斑点检测 斑点:与周围有着颜色差别的区域,即斑点内部的颜色基本相同,同时与其周围的颜色和灰度有差别。由于斑点代表的是一个区域,相比角点,稳定性好,抗噪声能力强,所以在图像配准上扮演了很重要的角色。

  • 算法

    LeetCode-236二叉树的最近公共祖先

    LeetCode-236二叉树的最近公共祖先 给定一个二叉树, 找到该树中两个指定节点的最近公共祖先。最近公共祖先的定义为:“对于有根树 T 的两个节点 p、q,最近公共祖先表示为一个节点 x,满足 x 是 p、q 的祖先且 x 的深度尽可能大(一个节点也可以是它自己的祖先

  • 深度学习

    Transformer 结构浅析

    Transformer 结构浅析 Transformer 网络结构

  • 深度学习

    Attention 注意力机制浅析

    Attention 机制 概述 自上而下的有意识的注意力,称为聚焦式注意力(Focus Attention). 聚焦式注意力也常称为选择性注意力聚焦式注意力是指有预定目的、依赖任务的,主动有意识地聚焦于某一对象的注意力 自下而上的无意识的注意力,称为基于显著性的注意力(Salienc

avatar

Gowi's Blog

IT小菜鸡

  • 109

    文章

  • 9

    分类

  • 515

    访问量

  • 首页
  • 分类
  • 标签
  • 归档
  • 关于
  • 后台
请您轻一点,我是很昂贵的机器人哦! O.O