亚星游戏官网-yaxin222

门户 | 手机客户端 | 论坛 | 人才 | 百科 | 搜索 | 技术问答 | English
待解决问题
请教一个信号衰减的问题
离问题结束还有0天0小时  |  提问者:killzone   |  提问时间:2013-12-28 14:05
最近查阅了一些资料,上面说基站的发射功率 有5w~40w 数据来源:Total BS TX power (Ptotal) 43dBm – 1.25, 5MHz carrier, 46dBm - 10MHz carrier (3rd Generation Partnership Project (3GPP), “3GPP TR 25.814 3GPP TSG RAN Physical Layer Aspects For Evolved UTRA, v7.1.0,” 2006.) 但我仿真时发现,在大尺度衰落下, Pr dBm=Pt dBm + K dB − 10γ*log10(d/d0) Pr是接受信号功率, Pt是发送信号功率。 K是跟天线和信道有关的常数,这里取-31.54db。γ是常数,取3.71。 d0是参考距离,这里取1. d是发送到接受的距离。 比如,如果d = 100 或者 d = 200米的时候,接受到的功率分别衰减了-105db和-116db.. 如果发送功率是10w,这时候接收到的功率就只有 3.1623e-11w了。 我仿真里面设定的热噪声为1mw。。。SNR小到用不了。。 请问下各位前辈,我这里面哪里理解错了吗?是发射功率不会这么小?还是我噪声设大了? 谢谢各位了


谢谢您的帮助。
我去标准里(LTE: 3GPP TR 36.931 version 9.0.0 Release 9)找到了类似的描述:
White noise power density -174 dBm/Hz
然后每一个RB有150Khz.
所以我算了下,换算过来,噪声功率约是-121dbm.
确实跟原来参考论文里假设的1mw热噪声不是一个量级的

不过很奇怪,这是IEEE的论文啊,不应该犯这种错啊...

再次谢谢您的帮助。
另外,祝您新年愉快~
回答时间:2013-12-29 17:22
 
我要回应:  回应字数在5000字以内

 

XML 地图 | Sitemap 地图