噪声干扰与一般方法
噪声与干扰 这两者非常容易混淆,因为有太多类似的地方,一句话,都是通信过程中极力避免的信号,都是接收有用信号时最不想收到的信号。
接收机接收信号时,基于一定的频段,有一段带宽。只要一接收,除了有用信号,噪声与干扰信号就不请自来。这就好像家里打开门窗,想让新鲜的空气进来,结果尾气、油烟什么的也跟进来了。
虽然对有用信号的伤害是一致的,不过两者还是有很明显的差别。简单说一下,噪声是内在的,而干扰是外在的。因此,假设有一天停电了,这时我们还能收到的信号就是噪声;而正常情况下,总是又能收到噪声,又能收到干扰信号。
噪声是内在的,全向的,无时无刻不在,无差别的;而干扰是外在的,不同时间、不同位置上,干扰是有差别。
衡量噪声、干扰的大小用SNR、SIR以及SINR,分别代表有用信号与噪声功率比、有用信号与干扰功率比以及有用信号与噪声和干扰功率比,分别简称信噪比、信干比和信噪干比。显然,这些比值越大,噪声和干扰的影响越小,接收效果越好。
噪声分类 按照来源分:噪声可分为人为噪声和自然噪声。人为噪声又可进一步分为无线电噪声和工业噪声,总而言之,人为噪声就是由人类的活动产生 ...
GMT,UTC,时区和夏令时
GMT GMT(Greenwich Mean Time), 格林威治平时(也称格林威治时间)。
它规定太阳每天经过位于英国伦敦郊区的皇家格林威治天文台的时间为中午12点。
格林威治皇家天文台为了海上霸权的扩张计划,在十七世纪就开始进行天体观测。为了天文观测,选择了穿过英国伦敦格林威治天文台子午仪中心的一条经线作为零度参考线,这条线,简称格林威治子午线。
1884年10月在美国华盛顿召开了一个国际子午线会议,该会议将格林威治子午线设定为本初子午线,并将格林威治平时 (GMT, Greenwich Mean Time) 作为世界时间标准(UT, Universal Time)。由此也确定了全球24小时自然时区的划分,所有时区都以和 GMT 之间的偏移量做为参考。
1972年之前,格林威治时间(GMT)一直是世界时间的标准。1972年之后,GMT 不再是一个时间标准了。
UTC UTC(Coodinated Universal Time),协调世界时,又称世界统一时间、世界标准时间、国际协调时间。由于英文(CUT)和法文(TUC)的缩写不同,作为妥协,简称UT ...
5G中的波束赋形
波束赋形(Beamforming)是一种提高接收信号的信噪比、消除不需要的干扰及将发射信号聚焦到特定位置的技术。波束赋形具有传感器阵列系统核心,广泛应用于5G、LTE和WLAN等MIMO无线通信系统。
5G与波束赋形鉴于中、高频频谱的应用,5G系统中采用了多种波束赋形技术,其中:包括数字波束赋形、模拟波束赋形、混合波束赋形、MIMO or MassMIMO、动态波束赋形、基于码本波束赋形和发声器的波束赋形。
波束赋形特点在5G系统中通过波束赋形将信号引导至特定用户或区域,在提高网络性能和效率方面发挥着至关重要的作用。5G中使用多种类型波束赋形技术来实现这一目标;其中:
数字波束赋形通过以下两步完成:
预编码:该技术涉及在发射机处使用多个天线元件来操纵每个天线信号的相位和幅度。通过这样做,传输的信号可以以相长干涉的方式组合到所需用户的位置,从而创建聚焦波束。
后合并:在接收端,将从多个天线接收到的信号进行合并,以最大化接收信号功率,从而提高接收数据的质量。
模拟波束赋形通过以下两步完成:
**移相器:**利用射频链中的移相器来调整不同天线元件上的信号相 ...
Pytorch训练语句位置
optimizer.zero_grad() ## 梯度清零preds = model(inputs) ## inferenceloss = criterion(preds, targets) ## 求lossloss.backward() ## 反向传播求梯度optimizer.step() ## 更新权重参数
由于pytorch的动态计算图,当我们使用loss.backward()和opimizer.step()进行梯度下降更新参数的时候,梯度并不会自动清零。并且这两个操作是独立操作。
backward():反向传播求解梯度。
step():更新权重参数。
基于以上几点,正好说明了pytorch的一个特点是每一步都是独立功能的操作,因此也就有需要梯度清零的说法,如若不显示的进 optimizer.zero_grad()这一步操作,backward()的时候就会累加梯度。
optimizer.zero_grad()意思是把梯度置零,也就是把loss关 ...
Dell主机黄灯闪烁
最近项目使用Dell的一体化主机optiplex 7070,但是经常性死机…可能是外接USRP 2943的原因,整个系统不稳定。
之前是Windows11系统,开机运行Labview后,突然闪屏,然后卡死,只能强制关机再重启,很伤电脑,经常这样后导致文件损坏,莫名无法开机,然后多重启几次又可以了…
遂重装windows10系统,还是windows10用起来舒服,装完Labview后,偶然还会出现卡死的现象,后来给主机重新上电后,才解决问题,推测可能是主机上电时某些硬件上电顺序不正确导致系统不稳定。
运行Labview程序经常卡死,必须重启电脑才能解决。
遇到主机黄灯闪烁,就是无法开机,查阅后发现是内存条读取失败,因此拆开主机拔插内存条后解决问题。
您的连接不是私密连接...
在使用Jetson NX时,发现无法连接wifi,右上角为有线连接图标,这是因为当前或者之前插入了网线,拔掉网线重启即可连接wifi。
连接wifi后打开网页显示“您的连接不是私密连接…”,这是因为系统时间和所选时区的时间不对应,将系统时间改成时区时间即可。
搭建USRP2943运行环境
工程需要,从USRP 2974转移到USRP 2943,USRP是NI开发的SDR(软件无线电),在官网可以找到USRP不同型号的手册。
2974和2943的区别 参考https://www.ettuschina.com/products/USRP-Motherboards/NI-USRP/
2974在性能和价格上比2943高出不少。2974 160k 2943 100k
2974将外设和计算机集成在一个“盒子”里,用户只需要外接显示器、键鼠等就可以工作。2943则属于外设和计算机分开,需要单独的主机,主机和2943之间使用MXIe X4连接。
来自官网:
USRP-2974高性能嵌入式SDR,10MHz-6GHz,160MHz带宽。USRP-2974使用板载FPGA和处理器提供对收发器的确定性控制,以快速构建高性能无线通信系统的原型。
USRP-2943 RF范围1.2GHz-6GHz 40MHz/120MHz带宽 FPGA为Kintex-7 410T 输入输出通道数分别为2,总线连接为MXIe 以太网。
环境配置
重装wi ...
6G前沿关键技术
6G概念 6G是新一代智能化综合性数字信息基础设施,将实现通信感知计算一体化、空天地海立体覆盖、普惠智能内生安全等能力跃升,具备泛在互联、普惠智能、多维感知、全域覆盖、绿色低碳、安全可信等典型特征,将实现从服务于人、人与物到支撑智能体的高效联接的跃迁,全面引领经济社会数字化智能化绿色化转型。
6G将具备一些典型特征:一是泛在互联,二是普惠智能,三是多维感知,四是全域覆盖,五是绿色低碳,六是安全可信。
最终,6G将实现物理世界人与人、人与物、物与物的高效智能互联,打造泛在精细、实时可信、有机整合的数字世界,实时精确地反映和预测物理世界的真实状态,助力人类走进虚拟与现实深度融合的全新时代,最终实现“万物智联、数字孪生”的美好愿景。
6G愿景需求 6G发展驱动力:经济可持续发展、社会可持续发展、环境可持续发展、技术创新发展
6G典型场景:
超级无线宽带
极其可靠通信
超大规模连接
通信感知融合
普惠智能服务
6G关键性能指标:体验速率、峰值速率、流量密度、时延、同步和抖动、连续数密度、移动性、可靠性、覆盖、感知/定位精度、AI服务精度等
6G无线前沿关键技术 ...
cuda与cudnn
GPU 显卡是我们平时说的GPU,现在大多数的电脑使用NVIDIA公司生产的显卡;常见的型号有Tesla V100,GTX950M,GTX1050TI,GTX1080等。
显卡驱动 特指NVIDIA的显卡驱动程序。
CUDA CUDA是显卡厂商NVIDIA推出的运算平台。CUDA™是一种由NVIDIA推出的通用并行计算架构,是一种并行计算平台和编程模型,该架构使GPU能够解决复杂的计算问题。CUDA英文全称是Compute Unified Device Architecture。
有人说:CUDA是一门编程语言,像C,C++,python 一样,也有人说CUDA是API。官方说:CUDA是一个并行计算平台和编程模型,能够使得使用GPU进行通用计算变得简单和优雅。运行CUDA应用程序要求系统至少具有一个具有CUDA功能的GPU和与CUDA Toolkit兼容的驱动程序。查看CUDA版本命令:nvcc -V 或nvcc –version或cat /usr/local/cuda/version.txt
需要知道:CUDA和CUDA Dri ...
关于AI的思考
广义人工智能分为系统、系统和系统之间的通信两个部分,即两个学科:自动化和通信。都属于信息科学。
狭义人工智能即为目前处于研究前沿的机器学习、深度学习等。下面深入分析狭义人工智能。
AI分为三大学派,行为主义、符号主义和连接主义,目前主流是连接主义,即模仿神经元的连接关系。另一个比较火的方向是符号主义,即知识图谱。
连接主义中的人工智能为机器学习,分为监督学习、无监督学习和强化学习(半监督学习),随着硬件算力的发展,深度神经网络逐渐展现出优势,深度学习进入研究前沿。
深度学习不断发展,主要应用于计算机视觉和自然语言处理两个领域。
进一步发展,出现大模型,包括大语言模型、计算机视觉大模型(AIGC)、多模态和音频大模型。
延伸出多个人工智能方向,包括:大模型、可解释性、自动机器学习、部署等。