信息论与编码试题集与答案新.doc

上传人:h**** 文档编号:166996 上传时间:2018-07-13 格式:DOC 页数:31 大小:1,015.50KB
下载 相关 举报
信息论与编码试题集与答案新.doc_第1页
第1页 / 共31页
信息论与编码试题集与答案新.doc_第2页
第2页 / 共31页
信息论与编码试题集与答案新.doc_第3页
第3页 / 共31页
信息论与编码试题集与答案新.doc_第4页
第4页 / 共31页
信息论与编码试题集与答案新.doc_第5页
第5页 / 共31页
点击查看更多>>
资源描述

1、 一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从 Y 获得的关于每个 X 的平均信息量,也表示发 X前后 Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为 。 4、通信系统模型如下: 5、香农公式为 为保证足够大的信道容量,可采用( 1)用频带换信噪比;( 2)用信噪比换频带。 6、只要 ,当 N 足够长时,一定存在一种无失真编码。 7、当 R C 时,只要码 长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识

2、论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。 9、 1948 年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最 常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源

3、一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息 经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源 X 的 N次扩展信源的熵等于离散信源 X 的熵的 N倍 。 18、离散平稳有记忆信源的极限熵, H )/(lim 121 NNN XXXXH 。 1

4、9、对于 n 元 m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量 X在 a, b区间内均匀分布时,其信源熵为 log2( b-a) 。 21、平均功率为 P的高斯分布的连续信源,其信源熵, Hc( X) = eP2log21 2 。 22、对于限峰值功率的 N维连续信源,当概率密度 均匀分布 时连续 信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为 0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值 P 和信源的熵功率 P 之比 。 25、若一离散无记忆信源的信源熵 H( X)等于

5、 2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 26、 m元长度为 ki, i=1, 2, n 的异前置码存在的充要条件是: nikim1 1 。 27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。 28、同时掷两个正常的骰子,各面呈现的概率 都为 1/6,则“ 3和 5同时出现”这件事的自信息量是 log218( 1+2 log23)。 29、若一维随即变量 X 的取值区间是 0, ,其概率密度函数为 mxemxp 1)( ,其中: 0x , m是 X的数学期望,则 X 的信源熵 )(XHC me2log 。 30、一副充分洗乱的扑克牌( 52 张),从

6、中任意抽取 1 张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 52log2 。 31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。 33、具有一一对 应关系的无噪信道的信道容量 C= log2n 。 34、强对称信道的信道容量 C= log2n-Hni 。 35、对称信道的信道容量 C= log2m-Hmi 。 36、对于离散无记忆信道和信源的 N次扩展,其信道容量 CN= NC 。 37、对于 N 个对立并联信道,其信道容量 CN = Nk kC1 。 38、多用

7、户信道的信道容量用 多维空间的一个区域的界限 来表示。 39、多用户信道可以分成几种最基本的类型: 多址接入信道、广播信道 和相关信源信道。 40、广播信道是只有 一个输入端和多个输出端 的信道。 41、 当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。 42、高斯加性信道的信道容量 C= )1(log21 2NXPP 。 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信息率小于信道容量 。 44、信道矩阵 100 02/12/1代表的信道的信道容量 C= 1 。 45、信道矩阵 100101代表的信道的信道容量 C= 1

8、。 46、高斯加性噪声信道中,信道带宽 3kHz,信噪比为 7,则该信道的最大信息传输速率 Ct= 9 kHz 。 47、对于具有归并性能的无燥信道,达到信道容量的条件是 p( yj) =1/m) 。 48、信道矩阵 10 01代表的信道,若每分钟可以传递 6*105 个符号,则该信道的最大信息传输速率 Ct= 10kHz 。 49、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础。 50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。 51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。 5

9、2、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。 53、单符号的失真度或失真函数 d( xi, yj)表示信源发出一个符号 xi,信宿再现 yj所引起的 误差或失真 。 54、汉明失真函数 d( xi, yj) = ji ji10。 55、平方误差失真函数 d( xi, yj) =( yj- xi) 2。 56、平均失真度定义为失真函数的数学期望,即 d( xi, yj)在 X 和 Y 的 联合概率空间 P( XY)中 的统计平均值。 57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数。 58、如果规定平均失真度 D 不能超过某一限定的值 D,即:

10、DD 。我们把 DD 称为 保真度准则 。 59、离散无记忆 N次扩展信源通过离散无记忆 N次扩展 信道的平均失真度是单符号信源通过单符号信道的平均失真度的 N 倍。 60、试验信道的集合用 PD 来表示,则 PD= mjniDDxyp ij ,2,1,2,1;:)/( 。 61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。 62、平均失真度的下限取 0 的条件是失真矩阵的 每一行至少有一个零元素 。 63、平均失真度的上限 Dmax 取 Dj: j=1, 2, m中的 最小值 。 64、率失真函数对允许的平均失真度是 单调递减和连续的 。 65、对于离散无记忆

11、信源的率失真函数的最大值是 log2n 。 66、当失真度大于平 均失真度的上限时 Dmax 时,率失真函数 R( D) = 0 。 67、连续信源 X 的率失真函数 R( D) = );()/( YXIPxypInfD 。 68、当 2D 时,高斯信源在均方差失真度下的信息率失真函数为 )(DR D22log21 。 69、保真度准则下的信源编码定理的条件是 信源的信息率 R 大于率失真函数 R( D) 。 70、某二元信源 2/12/1 10)( XP X其失真矩阵 D= 00a a,则该信源的 Dmax= a/2 。 71、某二元信源 2/12/1 10)( XP X其失真矩阵 D= 0

12、0a a,则该信源的 Dmin= 0 。 72、某二元信源 2/12/1 10)( XP X其失真矩阵 D= 00a a,则该信源的 R( D) = 1-H( D/a) 。 73、按照不同的编码 目的,编码可以分为三类:分别是 信源编码、信道编码和安全编码 。 74、信源编码的目的是: 提高通信的有效性 。 75、一般情况下,信源编码可以分为 离散信源编码、连续信源编码和相关信源编码 。 76、连续信源或模拟信号的信源编码的理论基础是 限失真信源编码定理 。 77、在香农编码中,第 i个码字的长度 ki 和 p( xi)之间有 )(lo g1)(lo g 22 iii xpkxp 关系。 78

13、、对信源 16/116/116/116/18/18/14/14/1( 87654321 xxxxxxxxXP X )进行二进制费诺编码,其编码效率为 1 。 79、对具有 8个消息的单符号离散无记忆信源进行 4 进制哈夫曼编码时,为使平均码长最短,应增加 2 个概率为 0 的消 息。 80、对于香农编码、费诺编码和哈夫曼编码,编码方法惟一的是 香农编码 。 81、对于二元序列 0011100000011111001111000001111111,其相应的游程序列是 23652457 。 82、设无记忆二元序列中,“ 0”和“ 1”的概率分别是 p0 和 p1,则“ 0”游程长度 L( 0)的概

14、率为 11)0(0)0( ppLp L 。 83、游程序列的熵 等于 原二元序列的熵。 84、若“ 0”游程的哈夫吗编码效率为 0,“ 1”游程的哈夫吗编码效率为 1,且 0 1对应的二元序列的编码效率为,则三者的关系是 0 1 。 85、在实际的游程编码过程中,对长码一般采取 截断 处理的方法。 86、“ 0”游程和“ 1”游程可以分别进行哈夫曼编码,两个码表中的码字可以重复,但 C码 必须不同。 87、在多符号的消息序列中,大量的重复出现的,只起占时作用的符号称为 冗余位 。 88、“冗余变换”即:将一个冗余序列转换成一个二元序列和一个 缩短了的多元序列 。 89、 L-D 编码是一种 分

15、帧传送冗余位序列 的方法。 90、 L-D 编码适合于冗余位 较多或较少 的情况。 91、信道编码的最终目的是 提高信号传输的可靠性 。 92、狭义的信道编码即:检、纠错编码 。 93、 BSC 信道即:无记忆二进制对称信道 。 94、 n位重复码的编码效率是 1/n 。 95、等重码可以检验 全部的奇数位错和部分的偶数位错 。 96、任意两个码字之间的最小汉明距离有称为码的最小距 dmin,则 dmin= ),(min ccdcc 。 97、若纠错码的最小距离为 dmin,则可以纠正任意小于等于 t= 2 1mind个差错。 98、若检错码的最小距离为 dmin,则可以检测出任意小于等于 l

16、= dmin-1 个差错。 99、线性分组码是同时具有 分组特性和线性特性 的纠错码。 100、循环码即是采 用 循环移位特性界定 的一类线性分组码。 1 信息的基本概念在于它的 不确定性 。 2 按照信源发出的消息在时间和幅度上的分布情况,可将信源分成 离散 信源和 连续 信源两大类。 3 一个随机事件的 自信息量 定义为其出现概率对数的负值。 4 按树图法构成的码一定满足 即时码 的定义。 5 有扰离散信道编码定理 称为香农第二极限定理。 6 纠错码的检、纠错能力是指 检测、纠正错误码元的数目 。 7 信道一般指传输信息的物理媒介,分为 有线 信道和 无线 信道。 8 信源编码的主要目的是

17、 提高通信 系统的有效性 。 设的取值受限于有限区间 a,b,则 X 服从 均匀 分布时,其熵达到最大;如 X 的均值为 ,方差受限为 2 ,则 X服从 高斯 分布时,其熵达到最大。 2信息论不等式:对于任意实数 0z ,有 1ln zz ,当且仅当 1z 时等式成立。 3设信源为 X=0, 1, P( 0) =1/8,则信源的熵 为 )8/7(log8/78log8/1 22 比特 /符号,如信源发出由 m 个“ 0”和( 100-m)个“ 1”构成的序列,序列的自信息量为 )8/7(log)1 0 0(8log 22 mm 比特 /符号。 4离散对称信道输入等概率时,输出为 等概 分布。

18、5根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。 6设 DMS 为 03.007.010.018.025.037.0. 654321uuuuuuPUU,用二元符号表 1,0 21 xxX 对其进行定长编码,若所编的码为 000, 001, 010, 011, 100, 101,则编码器输出码元的一维概率 )( 1xP 0.747 , )( 2xP 0.253 。 1. 在现代通信系统中,信源编码主要用于解决信息传输中的 有效性 ,信道编码主要用于解决信息传输中的 可靠性 ,加密编码主要用于解决信息传输中的 安全性 。 2. 离散信源 8/18/14/12/1)( 4321 x

19、xxxxpX,则信源的熵为 1.75bit/符号 。 3. 对称 DMC 信道的输 入符号数为 n,输出符号数为 m,信道转移概率矩阵为 pij,则该信道的容量为ijmj ij ppmC lo glo g 1 。 4. 采用 m进制编码的码字长度为 Ki,码字个数为 n,则克劳夫特不等式为 11 niKim , 它是判断 唯一可译码存在 的充要条件。 5. 差错控制的基本方式大致可以分为 前向纠错 、 反馈重发 和 混合纠错 。 6. 如果所有码字都配置在二进制码树的叶节点,则该码字为 唯一可译码 。 7. 齐次马尔可夫信源的一步转移概率矩阵为 P, 稳态分布为 W,则 W 和 P 满足的方程

20、为 W=WP 。 8. 设某信道输入端的熵为 H(X),输出端的熵为 H(Y),该信道为无噪有损信道,则该信道的容量为 MAX H( Y) 。 9. 某离散无记忆信源 X,其符号个数为 n,则当信源符号呈 等概 _分布情况下,信源熵取最大值 _log( n) 。 10. 在信息处理中,随着处理级数的增加,输入消息和输出消息之间的平均互信息量趋于 减少 。 12信息论不等式:对于任意实数 0z ,有 1ln zz ,当且仅当 1z 时等式成立。 3设信源为 X=0, 1, P( 0) =1/8,则信源的熵为 )8/7(log8/78log8/1 22 比特 /符号 ,如信源发出由 m 个“ 0”

21、和( 100-m)个“ 1”构成的序列,序列的自信息量为 )8/7(log)1 0 0(8log 22 mm 比特 /符号 。 4离散对称信道输入等概率时,输出为 等概 分布。 5根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编码。 6设 DMS 为 03.007.010.018.025.037.0. 654321uuuuuuPUU,用二元符号表 1,0 21 xxX 对其进行定长编码,若所编的码为 000, 001, 010, 011, 100, 101,则编码器输出码元的一维概率 )( 1xP 0.747 , )( 2xP 0.253 。 设的取值受限于有限区间 a,b ,则

22、X 服从 均匀 分布时,其熵达到最大;如 X 的均值为 ,方差受限为 2 ,则 X服从 高斯 分布时,其熵达到最大。 2信息论不等式:对于任意实数 0z ,有 1ln zz ,当且仅当 1z 时等式成立。 3设信源为 X=0, 1, P( 0) =1/8,则信源的熵为 )8/7(log8/78log8/1 22 比特 /符号 ,如信源发出由 m 个“ 0”和( 100-m)个“ 1”构成的序列,序列的自信息量为 )8/7(log)1 0 0(8log 22 mm 比 特 /符号 。 4离散对称信道输入等概率时,输出为 等概 分布。 5根据码字所含的码元的个数,编码可分为 定长 编码和 变长 编

23、码。 6设 DMS 为 03.007.010.018.025.037.0. 654321uuuuuuPUU,用二元符号表 1,0 21 xxX 对其进行定长编码,若所编的码为 000, 001, 010, 011, 100, 101,则编码器输出码元的一维概率 )( 1xP 0.747 , )( 2xP 0.253 。 1. 设信源 X 包含 4 个不同离散消息,当且仅当 X 中各个消息出现的概率为 _1/4_时,信源熵达到最大值,为 _2_,此时各个消息的自信息量为 _2 _。 2.如某线性分组码的最小汉明距 dmin=4,则该码最多能检测出 _3_个随机错,最多能 纠正 _1_个随机错。

24、3.克劳夫特不等式是唯一可译码 _存在 _的充要条件。 4.平均互信息量 I(X;Y)与信源熵和条件熵之间的关系是 _(X;Y)=H(X)-H(X/Y)_。 5._信源 _提高通信的有效性, _信道 _目的是提 高通信的可靠性, _加密 _编码的目的是保证通信的安全性 。 6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密编码的目的是保证通信的 安全性 。 7.设信源 X 包含 8个不同离散消息,当且仅当 X中各个消息出现的概率为 _1/8_时,信 源熵达到最大值,为 _3_。 8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越 _小

25、_。 9.信源的冗余度来自两个方面,一是信源符号之间的 _相关性 _,二是信源符号分布的 _不均匀性 _。 10.最大后验概率译码指的是 译码器要在已知 r的条件下找出可能性最大的发码 作为译码估值 ,即令 =maxP( |r)_ _。 11.常用的检纠错方法有 _前向纠错 _、反馈重发和混合纠错三种。 1 无失真信源编码的中心任务是编码后的信息率压缩接近到 1 限失真压缩中心任务是在给定的失真度条件下,信息率压缩接近到 2 。 2 信息论是应用近代数理统计方法研究信息的传输、存储与处理的科学,故称为 3 ; 1948 年香农在贝尔杂志上发表了两篇有关的“通信的数学理论”文 章,该文用熵对信源

26、的 4 的度量,同时也是衡量 5 大小的一个尺度;表现在通信领域里,发送端发送什么有一个不确定量,通过信道传输,接收端收到信息后,对发送端发送什么仍然存在一个不确定量,把这两个不确定量差值用 6 来表示,它表现了通信信道流通的 7 ,若把它取最大值,就是通信线路的 8 ,若把它取最小值,就是 9 。 3 若分组码 H阵列列线性无关数为 n,则纠错码的最小距离 dmin为 10 。 1. 在无失真的信源中,信源输出由 H(X) 来度量;在有失真的 信源中,信源输出由 R(D) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后 _加密 _编码,再 _信道 _编

27、码,最后送入信道。 3. 带限 AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1 )C W SNR;当归一化信道容量 C/W 趋近于零时,也即信道完全丧失了通信能力,此时 Eb/N0为 -1.6 dB,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密 系统的密钥量越小,密钥熵 H(K)就越 小 ,其密文中含有的关于明文的信息量 I(M; C)就越 大 。 5. 已知 n 7 的循环码 42( ) 1g x x x x ,则信息位长度 k为 3 ,校验多项式 h(x)= 3 1xx 。 6. 设输入符号表为 X 0, 1,输出符号表为

28、Y 0, 1。输入信号的概率分布为 p (1/2, 1/2),失真函数为 d(0, 0) = d(1, 1) = 0, d(0, 1) =2, d(1, 0) = 1,则 Dmin 0 , R(Dmin) 1bit/symbol ,相应的编码器转移概率矩阵 p(y/x) 1001; Dmax 0.5 , R(Dmax) 0 ,相应的编码器转移概率矩阵p(y/x) 1010。 7. 已知用户 A 的 RSA 公开密钥 (e,n)=(3,55), 5, 11pq,则 ()n 40 ,他的秘密密钥 (d,n)(27,55) 。若用户 B向用户 A发送 m=2 的加密消息,则该加密后的消息为 8 。

29、二、判断题 1. 可以用克劳夫特不等式作为唯一可译码 存在 的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 ( ) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 ( ) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度 L的增大而增大。 ( ) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量 X,当它是正态分布时具 有最大熵。 ( ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 8. 信道

30、容量是信道中能够传输的最小信息量。 ( ) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 ( ) 10. 在已知收码 R的条件下找出可能性最大的发码 iC 作为译码估计值,这种译码方 法叫做最佳译码。 ( ) 二、 判断题 1.确定性信源的熵 H(0,0,0,1)=1。 ( 错 ) 2.信源 X 的概率分布为 P(X)=1/2, 1/3, 1/6,对其进行哈夫曼编码得到的码是唯一的。 ( 错 ) 3.离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。 ( 对 ) 4.非奇异的定长码一定是 唯一可译码。 ( 错 ) 5.信息率失真函数 R(D)是在平均失真不超

31、过给定失真限度 D 的条件下,信息率容许压缩的最小值。 ( 对 ) 6.信源 X 的概率分布为 P(X)=1/2, 1/3, 1/6,信源 Y的概率分布为 P(Y)=1/3,1/2,1/6,则 信源 X和 Y 的熵相等。 ( 对 ) 7.互信息量 I(X;Y)表示收到 Y 后仍对信源 X的不确定度。 ( 对 ) 8.对信源符号 X=a1,a2,a3,a4进行二元信源编码, 4个信源符号对应码字的码长分别为 K1=1, K2=2, K3=3,K3=3,满足这种码长组合的码一定是唯一可译码。 ( 错 ) 9.DMC 信道 转移 概率 矩阵 为 3/1 6/13/1 6/16/1 3/16/1 3/

32、1P,则此 信道 在其 输入 端的信 源分 布为P(X)=1/2,1/2时传输的信息量达到最大值。 ( 错 ) 10.设 C = 000000, 001011, 010110, 011101, 100111, 101100, 110001, 111010是一个二元线性分组码, 则该码最多能检测出 3个 随机 错误。 ( 错 ) 三、判断(每题 1分)( 50 道) 必然事件和不可能事件的自信息量都是 0 。错 自信息量是 )(ixp 的单调递减函数。 对 单符号离散信源的自信息和信源熵都具有非负性。对 单符号离散信源的自信息和信源熵都是一个确定值。错 单符号离散信源的联合自信息量和条件自信息量

33、都是非负的和单调递减的。对 自信息量、条件自信息量和联合自信息量之间有如下关系: )/()()/()()( jijijiji yxIyIxyIxIyxI 对 自信息量、条件自信息量和互信息量之间有如下关系: )/()()/()();( ijjjiiji xyIyIyxIxIyxI 对 当随即变量 X和 Y相互独立时,条件熵等于信源熵。对 当随即变量 X和 Y相互独立时, I( X; Y) =H( X) 。错 10、信源熵具有严格的下凸性。错 11、平均互信息量 I( X; Y)对于信源概率分布 p( xi)和 条件概率分布 p( yj/xi)都具有凸函数性。 对 12、 m阶马尔可夫信源和消息长度为 m 的有记忆信源,其所含符号的依赖关系相同。 错 13、利用状态极限概率和状态一步转移概率来求 m 阶马尔可夫信源的极限熵。 对 14、 N维统计独立均匀分布连续信源的熵是 N 维区域体积的对数。 对

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 复习参考

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。