论文随笔-CFARnet
介绍 本人最近受够代码了,下定决心来点不一样的,do some math(如果能在下方打赏就更好了,码文不易,希望能赞助 买奶茶钱 买可乐钱) 恒虚警率这个约束是经典符合假设检验中的标准要求,随着科技进步,机器学习这一方法已经开始被人们使用在各个领域 这篇文章的主要内容: 定义了一个可以用于贝叶斯和机器学习的CFAR检测器框架:将CFAR约束应用于贝叶斯最优检测器,可以用于任意复合假设检验 提出learning-based CFAR检测器的性能门限,证明CFAR-constrained Bayes检测器渐进收敛于GLRT 提出了CFARnet,一种深度学习的恒虚警检测 将CFARnet与GLRT进行性能对比 相同性能下:CFARnet计算复杂度<GLRT GLRT表现不佳时:CFARnet仍有很好的性能,且仍能保持恒虚警特性 检测器 经典检测器 似然比检验(Likelihood Ratio Test,LRT)[1]: TLRT(x)=2logp(x∣z=z1)p(x∣z=z0)T_{LRT}(\boldsymbol{x}) =...
序列模型与循环神经网络
序列 介绍 现实生活中,有许多数据并不是像图片一样,看一眼就能了解全部信息. 举个简单的例子: 一句话中,词语的出现顺序可能也会影响这句话的信息量:**“狗咬人”所带来的信息远没有“人咬狗”**带来的信息量大…… 序列数据已经存在了人们的生活中当中: 音乐、语言和视频 地震:大地震后,往往伴随小的余震 如何对序列进行统计 上述提到了信息量,而信息量这个词往往就和概率相关了 在时间ttt观察到xtx_txt,那么得到TTT个不独立的随机变量(x1,...xT)−p(x)(x_1,...x_T) - p(\bold x)(x1,...xT)−p(x) 使用条件概率展开p(a,b)=p(a)p(b∣a)=p(b)p(a∣b)p(a,b)=p(a)p(b|a)=p(b)p(a|b)p(a,b)=p(a)p(b∣a)=p(b)p(a∣b) 所以p(x)p(\bold...
微调
介绍 神经网络除了最后一部分,其余部分都是在做特征提取,如果目标数据集属于原数据集,那么训练好的模型就可以直接拿来用了. 实际上Chatgpt就是属于这种(一句话总结:让你的模型站在巨人的肩膀上……) 假设使用数据集已经训练出了一个模型,那这个对目标数据集仍有很好的适用性(最后一层因为label的原因,往往发生改变) 微调的方式 训练 是一个目标数据集上的正常训练任务,但使用更强的正则化 使用更小的学习率 使用更少的数据迭代 源数据集远复杂于目标数据,通常微调效果更好 重用分类器权重 : Y = [aug(img) for _ in range(num_rows * num_cols)] d2l.show_images(Y, num_rows, num_cols, scale=scale)apply(img, torchvision.transforms.RandomVerticalFlip()) #上下翻转apply(img, torchvision.transforms.RandomHorizontalFlip()) ...
使用python进行Monte Carlo实验
Monte Carlo实验 方法一:使用multiprocessing包 使用python进行monte carlo实验,如下图所示,有16个进程可以设置 使用模板: 12345678910111213141516171819202122232425262728293031323334from multiprocessing import Poolimport argparsedef run_trial(trial_idx): """ 此处填写实验内容,需要在之前global变量 """ return 1 if success else 0if __name__ =="__main__": total_epochs = #TODO: 导入terminal参数 parser = argparse.ArgumentParser(description='Process some arguments.') ...
Resnet残差网络
思考 模型越复杂,是不是带来的好处就越多呢? 结构 残差块家族也有许多成员 Resnet块 重复多次,就得到了resnet网络 总结 残差块使得很深的网络更加容易训练 甚至可以训练一千层的网络 残差网络对随后的深层神经网络设计产生了深远影响,无论是卷积类网络还是全连接类网络
batch norm批量归一化
介绍 在训练模型的时候,对于一个网络来说: 前部:数据集中在前部,网络前面的层变化,则会导致后面的层也跟着变化->收敛速度慢 后部:损失是集中在网络后面的,所以往往后面的层训练较快 那有没有一种方式,使网络后面的层尽量保持不变呢? 批量归一化 定义 通过固定小批量数据的均值和方差,再引入可学习参数 γ 和 β 对数据进行调整,有助于加速模型的训练收敛,提高模型的稳定性 。 计算小批量均值和方差的公式: μB=1∣B∣∑i∈Bxi and σB2=1∣B∣∑i∈B(xi−μB)2+ϵ\mu_B = \frac{1}{|B|} \sum_{i\in B} x_i \text{ and } \sigma_B^2 = \frac{1}{|B|} \sum_{i\in B} (x_i - \mu_B)^2 + \epsilon μB=∣B∣1i∈B∑xi and σB2=∣B∣1i∈B∑(xi−μB)2+ϵ 然后对其做额外的调整: xi+1=γxi−μBσB+βx_{i + 1} = \gamma \frac{x_i - \mu_B}{\sigma_B} +...
模糊函数
介绍 窄带模糊函数 在脉冲雷达和声纳信号处理过程中,模糊函数是传播延迟τ\tauτ和多普勒频率fff, χ(τ,f)\chi(\tau,f)χ(τ,f)的二维函数。它表示由于接收机匹配滤波器[1] χ(τ,f)=∫−∞∞s(t)s∗(t−τ)ei2πftdt\chi(\tau,f)=\int_{-\infty}^{\infty}s(t)s^{*}(t - \tau)e^{i2\pi ft}dt χ(τ,f)=∫−∞∞s(t)s∗(t−τ)ei2πftdt 宽带模糊函数给出的定义为[2] [6] WBss(τ,α)=∣α∣∫−∞∞s(t)s∗(α(t−τ))dtWB_{ss}(\tau,\alpha)=\sqrt{|\alpha|}\int_{-\infty}^{\infty}s(t)s^{*}(\alpha(t - \tau))dt WBss(τ,α)=∣α∣∫−∞∞s(t)s∗(α(t−τ))dt 其中 α\alphaα是接收信号相对于发射信号的时间尺度因子,计算公式为: α=c+vc−v\alpha=\frac{c + v}{c -...
DL-CFAR检测算法
论文随笔-利用深度学习进行恒虚警检测 引言 之前已经提及,常用的CFAR一共有四种方法,但是都有一定的限制,CA-CFAR[1] 利用参考单元功率的算术平均值作为噪声水平估计值。它的一个变种,即单元平均恒定虚警率(GOCA-CFAR)[2],可以提高原始方案的虚警率。虽然这两种方案在同质场景中表现良好,但在多目标场景中,它们的性能会因错误的噪声水平估计而下降。为了提高多目标场景下的性能,有人提出了最小单元平均 CFAR(SOCA-CFAR)[3]。然而,它在密集多目标场景中并不能显著提高性能。有序统计 CFAR(OS-CFAR)[4] 可以处理这类问题,但它带来了显著的计算复杂性. 一、复习 1.RDM的获取 以 FMCW 雷达为例,发射一个由 M 个啁啾(啁啾是频率随时间线性增加的正弦波)组成的帧,然后以逐个啁啾的方式将发射和接收的啁啾混合成 M 个中频(IF)信号。然后,我们在每个啁啾信号中提取 N 个中频信号样本,并使用预定的采样周期。如图所示,CCM...
四种通信序列
一、Costas序列(常用在跳频中) 在数学中,Costas 数组可以在几何上视为 n 个点的集合,每个点位于 n×n 方块平铺中一个正方形的中心,使得每一行或每一列仅包含一个点,并且每对点之间的 n(n − 1)/2 个位移向量都是不同的。这导致了一个理想的“图钉”自模糊函数,使得这些数组在声纳和雷达等应用中非常有用。可以由对数Welch方法构建。[4] 下图是N=4的costas矩阵 这个代码老师没给,仿真时直接上网查输进去的QAQ,但是给了一本书《Radar Signals》(Nadav Leavnopn, Eli Mozaeeson)(这本书年龄比我爷爷都大……),本人用了,一堆报错,真服了……以下是修改改后的代码[10] 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748function positions = costas(N)% 修复后的函数,修正本原元判断逻辑positions = [];if isprime(N+1)...