多用户多任务(精选12篇)
多用户多任务 篇1
0 引言
“19世纪是铁路的时代,20世纪是高速公路的时代,21世纪是网络的时代”。网络环境下的各种应用,不管是资源管理、数据服务还是信息处理等方面都必须由多个进程协同完成,而进程的协同必须频繁地进行数据交换,尤其是海量的大规模数据服务,它包括数据的访问和控制,海量数据的拷贝、管理和计算。这对数据的及时存储与传输提出了很高的要求[1]。同时,随着当前数据大规模的增长和数据多样性等特点,如何快速响应多用户对海量数据的请求和多任务并行处理以及如何实现海量数据有效的网络数据传输是整个系统的关键技术。
开发网络应用程序的难点在于如何开发一个高效的网络服务器,使其尽最大可能为更多的网络客户提供服务。要设计与开发一款高性能的服务器,必须采用高效的网络I/O模型。并且,使它具备高稳定性和可扩展性,这很大程度上取决于网络通信层的性能。
有限的网络带宽和海量的数据构成了信息个性化网络服务的一大技术屏障,亦对网络境下数据的表达、传输、检索与共享提出了新的挑战[2]。学术界与工业界都对此进行了相关研究与设计工作。SkyLine的Terra Gate网络服务器同时传输海量数据到众多终端用户,其能在互联网上通过可变带宽来无缝进行,而不会收到网络连接的反应时间或中断的影响[2]。该技术对C/S模式进行了优化,能够处理数以千计的并发用户同时接入数据,并且具备较强的可扩展性,允许实际中位于不同位置的多个服务器可以同时处理海量数据并且自动地分配负荷。而2006年Google的Sisi Zitan所设计的服务器端和客户端通信双方之间不是直接传输数据,当用户请求数据时,服务器不需要实时生成数据,而是根据用户请求,在服务器端选择预先生成好的图片等文件,拼接成满足用户要求的范围,返回给用户。这种模式可以大大降低网络和服务器的负荷,为变化相对稳定的空间数据发布提供了新的思路和解决方案[3]。但其针对数据传输的过程中,客户端直到数据下载完毕才能进行其他的操作。上述软件传输方式的不足之处在于响应时间长、传输模式单一,难以满足客户端设备和网络设备的多样化的需求,网络渐进传输逐渐开始受到关注。目前的主流技术方案与网络数据传输软件基本都支持C/S或B/S模式的网络应用,传输方式的不足之处在于响应时间长、传输模式单一,难以满足客户端设备和网络设备的多样化的需求,网络渐进传输逐渐开始受到关注。
本文所设计的异步网络通信传输方法主要采用ACE Proactor搭建异步网络框架,利用线程池技术并行处理消息,同时分析了海量数据传输时的特点以及满足实时可视化等应用需要的前提下提出的,为海量数据的多用户/多任务网络传输提供了一种参考模式。
1 常见的网络I/O模型
网络通信模型的选择直接决定了网络应用软件的能力。软件设计者通常需要考虑软件应用背景来选择合适的网络通信模型。目前比较常用的网络通信模型如下:
(1)阻塞I/O
Socket的读或写事件设置为阻塞模式,当Socket不能立即完成这些事件时,进程或线程进入等待状态,直到操作完成。其工作流程如图1所示。
这种模型占用的系统资源少,具有很高的响应速度,并且控制起来也很简单,在连接数较少的时候非常有效。但简单也带来一些缺点,程序在数据到来并准备好以前,不能进行其他操作,需要有一个线程专门用于等待,这种代价对于需要处理大量连接的服务器而言,是很难接受的。
(2)非阻塞I/O
把Socket的读或写事件设置成非阻塞模式,当读或写事件发生却无数据操作时也不会一直等待,而是立即返回特定错误,工作流程如图2所示。
这种模式可以解决因连接较多产生大量处理线程并造成系统负载压力过大的问题,但在实际应用中需要不停的查询,而这些查询大部分可能是无必要的调用,白白浪费了系统资源。因此并没有广泛应用于实践。
2 多用户/多任务并发的海量数据异步通信的体系框架
本节将从通信架构和通信流程两方面阐述针对海量数据的异步通信的体系框架:通信架构主要阐述客户端和应用服务器端网络通信的结构和实现方法。通信流程主要阐述在客户端、应用服务器和数据库服务器多层架构下,三者之间的通信过程和交换步骤。
2.1 异步通信的架构
在客户端、应用服务器和数据库服务器多层架构下,应用服务器和数据库服务器之间通过数据库查询接口进行通信。多层架构下的海量数据异步通信架构如图3所示。
整个应用服务器的设计分为两层:逻辑处理层和网络层。逻辑处理层由缓存模块和并行调度模块组成。缓存模块主要功能是将常用数据缓存到内存,以减少频繁访问数据库和磁盘所带来时间上的消耗,缓存数据常驻在内存中。并行调度模块主要功能是通过多线程并行执行的方式从数据库或缓存中获取目标数据,并将这些数据序列化为字节流的形式供网络层进行数据传输。
网络层功能包括:网络监听、消息处理和数据传输。ACE Proactor模式能够异步的监听网络连接、网络读与写等网络事件。网络读事件是指应用服务器端监听并接收所有客户端的消息。在所有的消息优先级都相同的海量数据网络通信时,可以按照“先来先服务的原则”,以消息队列的方式进行缓冲。管理和处理消息采用并行的半同步/半异步线程池策略设计。该设计可以分为以下三层:
异步层:一条线程;负责接收异步请求(主要是指客户端消息)。
排队层:一个队列;负责对请求进行缓冲(建立消息队列实现)。
同步层:线程池;多条线程阻塞在排队层上,有序的从消息队列中取出消息进行处理。
上述分别从逻辑组成和功能两方面分析了应用服务器端和客户端通信机制,如图4所示。
2.2 异步通信流程
客户端、应用服务器、数据库服务器多层架构下的工作流程步骤如下:
步骤1开启客户端、应用服务器端通信监听服务和数据库服务器服务功能,动态配置服务器端通信线程池和调度线程池的参数;
步骤2应用服务器端监听到客户端的连接请求后,接收客户端发出的连接消息,解析连接消息的参数,验证参数是否正确,如果正确,返回连接成功信息,建立客户端与服务器端的连接,进入步骤3,否则返回连接失败信息;
步骤3服务器端接收多个客户端发送的数据查询消息,将消息加入消息队列的后端,从通信线程池中取出线程依次处理消息队列中的消息;
步骤4通信线程将解析的消息转换成数据库查询的任务,加入到查询任务队列的后端,并等待返回数据查询结果;
步骤5从调度线程池中取出线程依次执行查询任务队列中的任务,向缓存中读取数据,如在缓存中找到目标数据,则进入步骤6,否则,向数据库中读取数据;
步骤6调度线程将数据返回给通信线程,并重新归入调度线程池。通信线程将返回的数据序列化为字节流的形式;
步骤7通信线程根据获取数据的数据量大小选择不同的传输方式将数据发送给客户端;
步骤8客户端接收数据,进行数据重组和解序列化的操作,得到待查询的三维空间数据对象。
具体的工作流程如图5所示,实线表示各个端内部的流程逻辑,虚线表示端与端之间的交互。
3 支持多用户/多任务并发的异步通信关键技术
3.1 网络传输中粘包的处理方法
在使用TCP协议的网络应用中,不可避免需要处理的一个问题就是粘包的情况。出现粘包现象的原因是多方面的,它既可能由发送方造成,也可能由接收方造成。
发送方所造成的粘包现象的原因是TCP协议的设计本身。根据TCP协议,只有当收集到的数据达到一定数量时,发送方才会发送本包数据,以提高效率。如果连续发送的数据量较少,根据协议则会将这些数据合成打包处理,从而造成了接收方的粘包现象。
接收方所造成的粘包现象则是由于接收机器上程序进程没有及时接收数据,将数据滞留在系统缓冲区中,当传输的下一包数据到达时,前一包仍然没有被接收,则下次用户线程进行接收时,则会根据用户缓冲区的大小将缓冲区中的数据全部取走,从而导致了多包数据粘包现象。
粘包现象处理方法大致有两种:
(1)将接收端的系统缓冲区的容量增大,在缓冲区中储存全部的接收到的数据包,然后从中筛选出完整的数据包。可以采用环形缓冲区的方式进行实现优化,避免频繁的数据移动。
(2)预先定义固定的包头结构体,其中包含数据包的长度信息。在接收方接收数据的时候,先接收该包头数据,然后再接收指定长度的数据体。
在自适配通信环境ACE(Adaptive Communication Environment)中,用于保存消息的内存基础类ACE_Message_Block有一个重要的特性:复合。它可以将前后收到的两个数据包体连成一个复合体,形成一个单链表,而不用建一个大的数据包将两个ACE_Message_Block拷贝进去。下面的示例采用ACE的Proactor框架完成,给出了服务器端作为接收方时粘包及半包的处理关键算法:
3.2 基于线程池的消息并行处理技术
当多用户并发且客户端与服务器端通信频繁时,服务器端需要处理大量的客户端请求。服务器按照处理请求方式的不同可以分为反应式服务器和并发式服务器。
反应式服务器对所有的客户消息采用一条线程进行处理。在操作系统尚未大规模引入多线程处理前,通常采用同步事件多路分离的策略来进行并发处理,其机制为一个单线程进程依次循环处理多个服务请求。该处理方式实现简单,但不适合并发用户较多、通信双方交互频繁的实际应用。因为服务器端事务处理效率低下,吞吐量极小,并发访问时消息响应时间过长,从而无法满足用户的要求。
并发式服务器是指用多线程技术并行地处理所有客户端的请求。该处理方式可以分为三种情况:
(1)为每一个客户请求开一条线程,从而更好的处理并发地客户请求。当创建新线程后,主线程继续监听新请求,工作线程继续处理客户的请求。
(2)一个连接一条线程(thread-per-connection):主线程侦听请求,工作者线程则处理来自这个连接的客户请求。
(3)线程池技术(thread-pool):预先创建一定数量的线程,线程开启后全部放入线程池队列,这些线程启动后均处于阻塞状态,不消耗CPU,仅占用较小的内存空间。当消息到达后,线程池从空闲队列中选择一条合适的线程去执行该消息。
前两种情况虽然都能并行地处理客户请求,处理请求或连接较少的应用时都有优势,但都存在致命的缺陷:一方面,动态的创建和销毁线程需要大量的系统额外开销。另一方面,当请求或连接较多时,这两种情况都会造成服务器端开启较多线程,从而给服务器带来较大的负载压力。而线程池技术在预先已经创建固定数目的线程,能够避免上述二方面的缺点。因此使用线程池技术并行处理消息的并发式服务器是支持多用户/多任务并发的理想服务器模型。
线程池技术按照其工作方式分类,分为两类:半同步/半异步模型和领导者/工作者模型。在半同步/半异步模型中,一组工作线程处理请求,一个侦听线程进行请求的监听,并缓冲至队列。因此接受请求的线程与处理请求的线程并不相同。而在领导者/工作者线程中,一个线程作为领导者线程,首先获取请求;其他的作为跟随者会被选择一个作为新的领导者继续对请求进行处理。因此接受请求的线程就是处理请求的线程。在异步网络通信时需要将消息缓冲到消息队列进行处理,而同步通信时无需创建消息队列。因此半同步/半异步模型适用于异步通信,领导者/工作者模型适用于同步通信。
线程池中线程的数目取决于系统能够承受的数目,单就对于模型本身来说,线程池的线程数目越大,能够承受的网络蜂拥的极限值也越大。但是如果执行每个请求的时间都很短,则系统中存在大量永远也用不到的线程,浪费了系统的资源。线程池中线程数的设定要根据系统的负载来动态的调节,既要防止系统资源(CPU)被耗尽,也要保证能够及时响应。通常是设置一个上限(如进程使用了80%的CPU)和一个下限(如10%的CPU)。这样,既保证有足够的线程用于服务,又可以防止系统反应过慢。通常应该由实际应用情况来确定。
4 实验测试分析
4.1 实验环境
为验证基于本文所研发的网络通信模块的科学性与有效性,本文在对该模块在实际的应用环境中进行了实验测试,分别测试了在百兆和千兆网络环境下单用户和多用户访问时数据传输效率。其中对于多用户访问的测试,并未实际在多台主机运行客户端程序,而是采用工业级测试软件Loadrunner来虚拟生成多个用户。实验环境如表1所示。
4.2 实验数据
实验数据:城市某小区的三维空间数据约2.0 G,数据类型主要包括Feature数据、材质数据、纹理数量、共享模型数据、DEM数据、DOM数据和其他属性数据。其中,Feature数据对象个数为906个,数据量约为167M;纹理数据数据对象个数为1131个,数据量约为1.5G;DEM数据量极小,可以忽略不计;DOM数据约为150M。DEM数据按照65×65分块、DOM数据按照256×256分块。
4.3 实验结果与分析
应用服务器是客户端与数据库服务器的中间件,主要由网络通信服务器模块、并行调度模块和缓存模块组成,缓存模块在测试时开启1G内存,主要存储部分Feature数据和纹理数据。其中通信服务器线程池和调度模块线程池分别开启10条线程。
百兆网环境下多用户数据平均传输效率实验结果如表2所示。数据传输效率是指某段时间t内所传输的某种类型的数据量与时间t的比值。数据平均传输效率是指测试3次求得数据传输效率的平均值。
百兆网环境下采用同样实验数据,在20个客户端条件下,与文献[2]中所提到的两个方法传输速率对比如表3所示。
千兆网环境下多用户数据平均传输效率实验结果与对比如表4和表5所示。
在用户数据量小于10时,尽管应用服务器端通信线程池启动10条线程并行处理消息,随着用户数的增加,也会对消息响应时间造成一定影响。原因一方面是线程从消息队列中取消息时需要加锁,另一方面多线程在发送数据给客户端时调用数据分包和发送数据函数时需要加锁。加锁机制会带来时间上的延迟,从而降低了消息响应时间,影响数据传输效率。在用户数大于10时,对消息响应时间的影响除了上述提及的原因以外,一方面是并发消息数大于线程数量,导致消息需要在消息队列中排队等候空闲的线程,造成同步延迟。另一方面用户数增加会造成应用服务器负载增加,也会降低服务器处理能力。而本文算法与Skype Terra Gate和Sisi的服务器策略的对比结果,则充分证明了本文算法在传输速率上的优势。
通过实验结果,反映了由于文献[2]中所提到的两个方法在本地OS网络通信API存在延迟等过多的低级细节、不能处理更高的复杂性等缺陷,本文研究的算法则可以以较好的速率有效地支持局域网和互联网上的数据传输,并支持多用户/多任务并发的高效服务器。
5 结语
网络的发展促进了资源共享,使得各个专业领域的海量数据的管理方式从原来的独占、集中走向了分布、共享。如何利用分布式计算平台高效地管理和使用海量数据并为大型应用决策服务已成为当今很多行业技术面临的重大课题。本文主要研究在海量数据环境中实现多用户/多任务并发的异步网络通信方法。首先介绍了各种网络I/O模型,在此基础上提出了一种支持多用户并发的海量数据的异步网络通信的体系框架和方法,并分别从架构、流程展开介绍,并详细论述了其关键技术。实验测试与分析验证了海量数据传输的高效性和稳定性,可以满足基于大规模数据的各种实时应用的需要。
参考文献
[1]Shekhar S,Ravada,Chubb D,et al.Declustering and load-balancing methods for parallelizing geographic information systems[J].Knowledge and Data Engineering,2008,10(4):632-655.
[2]R Meier.System,method and device for high bit rate data communication over twisted pair cables[J].US Patent,2012,3(5):24-28.
[3]Wan C,Cheung R,Wong S.A communicaton system for Massive Multiplayer Online Game[C]//Signal Processing,Communication and Computing(ICSPCC),2012:400-405.
[4]He Zhengwei,Jing Chen,Huayi Wu.Management and services for large-scale virtual 3rd urban model data based on network[C]// 2010.Guangzhou,China:SPIE:35-36.
[5]Hugues Hoppe.Smooth View-Dependent Level-of-Detail Control and its Application to Terrain Rendering[C]//IEEE visualization 2009,Oc- tober 2009:35 -42.
[6]杨必胜,李必军.空间数据网络渐进传输的概念、关键技术与研究进展[J].中国图象图形学报,2009,14(6):1018-1026.
[7]侯建,帅仁俊.基于云计算的海量数据存储模型[J].通信技术, 2011,3(7):35-38.
[8]李涛,李慧,古建华.基于ACE的并发编程模式和池式内容分配的研究[J].计算机工程与设计,2006,27(1):26-28.
[9]李宜达,李毅.基于ACE的分布式服务器集群系统框架的设计与实现[D].四川:电子科技大学,2009,6-10.
[10]李青元,林宗坚,李成民.真三维GIS技术研究的现状与发展[J].测绘科学,2000,25(2):47-51.
[11]李媛媛.Visual C++网络通信开发入门与编程实践[M].北京:电子工业出版社,2008:234-236.
多用户多任务 篇2
操作系统:RedHat 6.1
硬件:串口多用户卡
串口多用户卡一般都有跳线可供选择(阅读说明书).
我对一个八口的多用户卡的跳线设置为:
IRQ=3
I/O=0190,0198,01a0,01a8,01b0,01b8,01c0,01c8(十六进制)共八个
I/O端口
多用户卡的晶片类型:16550A /*不同的多用户卡的晶片类型可能不同*/
过程:由于涉及设置,以下的操作由root用户完成.
一.因为多用卡的中断是3,所以要删去ttyS1(COM1)和ttyS3(COM4).
1. #cd /dev
2. #./MAKEDEV -d ttyS1
3. #./MAKEDEV -d ttyS3
二.生成串口设备.
1. #cd /dev
2. #./MAKEDEV ttyS11
3. #./MAKEDEV ttyS12
4. #./MAKEDEV ttyS13
5. #./MAKEDEV ttyS14
6. #./MAKEDEV ttyS15
7. #./MAKEDEV ttyS16
8. #./MAKEDEV ttyS17
9. #./MAKEDEV ttyS18
/*选择这样的串口设备是我的喜好,您可以选择ttyS[0..63]范围的串口设备*/
三.设置串口设备对应多用户卡的串口
1. #/bin/setserial /dev/ttyS11 port 0x0190 irq 3 uart 16550A
/*设置/dev/ttyS11i为对应多用户卡的第一个串口,以下依此类推*/
/*如果没有setserial工具,就安装它.RH6.1的缺省安装就已有此工具了*/
2. #/bin/setserial /dev/ttyS12 port 0x0198 irq 3 uart 16550A
3. #/bin/setserial /dev/ttyS13 port 0x01a0 irq 3 uart 16550A
4. #/bin/setserial /dev/ttyS14 port 0x01a8 irq 3 uart 16550A
5. #/bin/setserial /dev/ttyS15 port 0x01b0 irq 3 uart 16550A
6. #/bin/setserial /dev/ttyS16 port 0x01b8 irq 3 uart 16550A
7. #/bin/setserial /dev/ttyS17 port 0x01c0 irq 3 uart 16550A
8. #/bin/setserial /dev/ttyS18 port 0x01c8 irq 3 uart 16550A
四.编缉/etc/inittab文件
1. 在文件/etc/inittab增多以下几行:
11:2345:respawn:/sbin/mingetty ttyS11
12:2345:respawn:/sbin/mingetty ttyS12
13:2345:respawn:/sbin/mingetty ttyS13
14:2345:respawn:/sbin/mingetty ttyS14
15:2345:respawn:/sbin/mingetty ttyS15
16:2345:respawn:/sbin/mingetty ttyS16
17:2345:respawn:/sbin/mingetty ttyS17
18:2345:respawn:/sbin/mingetty ttyS18
/*每行开头的号码(如11等)视您的机器设置而定*/
2. #init q /*使以上增加的几行生效*/
至此,已完成了串口多用户卡的设置.接上终端,就可见到盼望已久的login状态,爽吧!
另外,如果想每次一开完机,就能使用串口卡,可以将第三步编缉成shell文件,放在
/etc/rc.d/init.d下,然后在/etc/rc.d/rc3.d造个软连接,步骤如下:
1. #cd /etc/rc.d/init.d
2. #vi ttyS //文件名随您选
增加第三步的几行:
/bin/setserial /dev/ttyS11 port 0x0190 irq 3 uart 16550A
/bin/setserial /dev/ttyS12 port 0x0198 irq 3 uart 16550A
/bin/setserial /dev/ttyS13 port 0x01a0 irq 3 uart 16550A
/bin/setserial /dev/ttyS14 port 0x01a8 irq 3 uart 16550A
/bin/setserial /dev/ttyS15 port 0x01b0 irq 3 uart 16550A
/bin/setserial /dev/ttyS16 port 0x01b8 irq 3 uart 16550A
/bin/setserial /dev/ttyS17 port 0x01c0 irq 3 uart 16550A
/bin/setserial /dev/ttyS18 port 0x01c8 irq 3 uart 16550A
存盘退出
3. #chmod +x ttyS /*使ttyS可执行*/
4. #cd /etc/rc.d/rc3.d //这是进入字符状态多用户模式,如果一开机就进入
//XWindows模式,应选择路径 /etc/rc.d/rc5.d
5. #ln -s ../init.d/ttyS S99ttyS //您可以选另外一个连接文件名
//以上是我的做法,当然很多人将上面几行setserial内容增加在/etc/rc.d/rc.local
//的尾部,就更简单了,
如何设置串口多用户卡Windows系统
,
如果你想知道你所用的终端是哪一个串口设备,可编缉/etc/rc.d/rc.local,在它的一行中
增加(l):
1. #vi /etc/rc.d/rc.local
找到一行:
echo ”Kernel $(uname -r) on $a $SMP$(uname -m)“ >>/etc/issue
增加(l),上面一行变成:
echo ”Kernel $(uname -r) on $a $SMP$(uname -m) (l)" >>/etc/issue
那么,你就能在终端上见到象这样的login状态:
......................
.................... (ttyS11)
............ login:
最紧要的是你要知道串口多用户卡的晶片、中断和I/O。
如有建议,请Email:iesun@21cn.com 或iesun@sina.com
多用户多任务 篇3
软件下载与安装
请到以下地址下载“Winconnect Server XP”软件:http://www.thinsoftinc.com/download/WinConnect-ServerXP/setup.exe,然后以默认选项的方式进行安装。安装完毕后计算机必须重新启动才可以使用。
重启计算机后会看到桌面上的快捷方式图标(图1)。双击打开程序后会看到当前计算机的一些情况说明,但无需我们进行任何设置,这台计算机就可以让更多的人同时连接上来而互不干扰。
通过“远程桌面连接”对计算机进行管理与使用
如何连接安装“Winconnect Server XP”软件的计算机呢?单击“开始→所有程序→附件→通讯→远程桌面连接”(图2),在弹出的“远程桌面连接”对话框中输入计算机名或IP地址、用户名、密码后,点击连接按钮就可以远程操作管理安装“Winconnect Server XP”软件的计算机了。
图3是在安装“Winconnect Server XP”软件的计算机上启动客户端后的情况,从图中可以看到当前控制端的用户为“wjh”,远程用户“w”正在进行远程管理操作,另外还有一个用户正在连接而没有登录。通过点击相对应的连接,我们还可以看到每个用户正运行的程序。
注意问题
多用户多任务 篇4
在有限反馈信道状态信息 ( CSI) 研究中, 文献[3]提出, 只有同时反馈CDI和CQI, 系统才能同时获得复用增益和多用户分集。文献[4]利用和容量最大化, 得到信道增益门限, 但机会调度情况下无法把握用户等待时间。文献[5]利用累计分布函数选取最佳阈值, 表现出高的和速率。
为了降低计算复杂度, 提高系统运行效率。本文在保证较高系统和速率基础上, 提出了一种新的基于门限优化的用户选择与预编码方案。称之为次优门限预编码方案。
1 系统模型
考虑一个多用户MIMO系统, 基站配有Mt根天线, 共有K个单根天线用户, K ≥ Mt。K个用户经历瑞利块衰落信道。则用户i的发射信号:
式 ( 1) 中: ni表示用户i的加性高斯白噪声;是信道增益矢量; x为基站发射信号, 且信道输入满足E{ ‖x‖2} < P。
应用信道分解是信道幅度的平方, 是信道方向信息 (CDI) 。用户i根据 (2) 量化, 码本大小为N=2B。
式 (2) 中, B是量化位数, 是单位规范向量, ci={ci, 1, …, ci, N}为预先设定码本, ci, j是用户i的第j个Mt维单位范数矢量。在有限速率反馈系统, 每个用户反馈序号给基站, 而不是的全部信息。
2 次优门限的有限反馈预编码
2. 1 阈值的选取
为了进一步降低文献[5]中计算最优阈值的复杂度, 下面基于预先设定候选用户数思想进行次优求值。
基于每个用户的反馈位数, 基站与那些信道增益大于阈值 α 的用户通信。pi是用户i进行1 位反馈的概率
进行1 位反馈用户数的平均数量
因此, 通过满足E{ L} = L珔, 即可找到次优阈值α, L珔代表预先设定的用户数, Mr代表每用户配备的天线数, 则 ( 3) 可表示为
由于量化不完全 β 函数, 则有
由式 ( 4) 、式 ( 6) 有
已有大量文献表明 α 受L珔值的影响不大。文献[4]仿真表明, 基于最优化阈值方法的候选用户数量几乎是不变的。因此可根据[4]确定平均候选用户数。为了简便性, 可直接设定L珔= 2N ~ 3N。
2. 2 基于次优阈值的用户选择及预编码策略
本文基于次优阈值的反馈算法如下:
( 1) 首先根据系统要求, 确定总的反馈速率, 并根据文献[6]确定最优反馈用户数N, 再根据最优用户数由式 ( 7) 得到阈值 α。
(2) 当‖hi‖2>α, 进行1位反馈。设定Ii=1时反馈, Ii=0时不反馈, 且card{I|Ii=1}=L, 其中card{I|Ii=1}代表进行反馈的集合元素个数。从反馈候选用户中选出N个用户。
( 3) 基于用户相关性的用户选择算法, 用户子集选择过程如下:
①候选用户数为L, 则相关矩阵G为L × L, 其元素为gm, n, 代表用户m与用户n的相关程度, m, n ∈ { 1, …, L} 。令激活用户数为N, 则用户m与用户n的相关程度gm, n=| 〈Vm, Vn〉|2, Vi表示用户i对应的右奇异向量。
②对G的每行元素升序排列, 且对排序后的矩阵各行前N个元素相加最终得到Q= [q1, …, qL]T。 则第一个用户序号S1表示为:
③当激活用户总数不超过Mt时, 利用式 ( 9) 寻找第i个用户 ( i ≤ 2) 的序号
当激活用户数大于Mt时算法结束。
以上算法中, 式 ( 9) 用来得到和其他用户相关系数最小的用户。S ( u) 代表已被选出的用户序号。
( 4) 应用ZFBF进行波束成形[6]。
3 仿真
在图1 中, 给出了在用户数不同的情况下, 次优阈值与最优反馈用户数之间的关系。图1 显示, 次优阈值随着系统用户数的增大而增大, 随着最优反馈用户数的增大而减小。
为了更好地对比不同时, 阈值与用户关系的变化。图2 取。 由图可得与图1 类似的结论。
由图3 可以看出, 最优阈值方案下获得的候选用户数几乎是不变的, 而次优阈值获得的候选用户数由于是一个关于最优反馈用户数的比例函数, 所以其得到的候选用户数也是不变的。这里我们设定候选用户数L珔= 3N。 可以看出, 当N=4 的情况下, 次优阈值方案获得的候选用户数略低于最优反馈方案, 当N=8、12、16 时, 次优阈值方案得到的候选用户数开始大于最优反馈方案。
图4 给出了理想反馈条件下, 不同方案的和速率性能。这里我们设定N = 4。由图可知, 基于最优阈值反馈的方案性能是最好的。基于次优阈值反馈方案的性能仅次之。且在用户数达到350 时, 二者差距进一步减小。这两种反馈方案均远远优于无阈值方案。
在图5 中, 当系统总上行反馈Z = 50 bits时, 对几种方案的性能进行仿真。可以得到, 次优反馈方案和速率略低于文献[4]的最优阈值方案, 但明显优于无阈值方案。当用户数K =300 时, 次优阈值方案与最优阈值的方案差距开始缩小。
当系统总的上行反馈量为Z = 100 bits时, 图6给出了几种方案的性能。可以得到与图5 类似的结论。
综合上述仿真实验可以得出, 基于阈值优化的系统性能明显优于无阈值的系统。基于次优阈值的系统性能略低于基于最优阈值的系统, 但计算更为简便。基于次优阈值的系统, 在降低函数的复杂度的前提下, 确保了达到较高的和速率性能。次优阈值方案, 基于最优用户数N, 确定预先设定用户数, 得到次优阈值。随着用户数的增加, 相应地提高阈值, 较为充分地利用了多用户分集, 大幅度降低了函数计算复杂度。
4 结论
在多用户MIMO反馈速率有限的系统中, 针对多用户分集与反馈速率相互制约问题, 提出次优阈值方案。根据阈值思想, 获得较简单的阈值求解方法。分析了多用户分集的次优阈值, 给出了基于次优阈值的反馈速率方案。在保证一定和速率的基础上, 降低了运算的复杂度, 仿真结果验证了方案的优良性能。
参考文献
[1] Emre Telatar.Capacity of multi-antenna Gaussian channels.European Transactions on Telecommunications, 1999;10 (6) :585—595
[2] Jindal N, Goldsmith A.Dirty-paper coding versus TDMA for MIMO broadcast channels.Inform Theory, 2005;51 (5) :1783—1794
[3] Yoo T, Jindal N, Goldsmith A.Multi-antenna downlink channels with limited feedback and user selection.Sel.Areas Commun, 2007;25 (7) :1478—1491
[4] Sanayei S, Nosratinia A.Opportunistic downlink transmission with limited feedback.Inform.Theory, 2007;53 (11) :4363—4373
[5] 于波, 贾静, 孔凡芝.一种基于优化阈值的有限反馈预编码算法.科学技术与工程, 2012;12 (20) :4912—4915
多用户多任务 篇5
[摘要]会计电算化软件作为一款应用软件,具备了相当的UI友好性,这种特性对于没有过多IT技术的会计人员来说很有帮助,因为他们在经过简单的培训的情况下,就可以迅速上手相应的会计软件,实现会计工作的电子化,提高工作效率。然而,随着教育的程度日益提高,一般的计算机技术对于普通人来说并不困难,同时财务软件的更新趋势也是进一步提高用户友好,这就缩减了非财务人员操纵财务软件的难度,为会计信息及会计信息系统带来了巨大的风险。
[关键词]用户友好;会计信息安全;可变式UI设计体系
不可否认财务软件在会计工作中的应用,可以提高会计工作的效率,同时由于计算机独有的校验功能也可以使原本纷繁复杂的会计信息无论从记录的准确度还是处理的合理程度上提高不止一个层次。然而,会计电算化软件为我们提供如此之多的便利的同时,储存在会计软件中的会计信息也变得更加的容易被获取、篡改、或者破坏。因而,会计电算化的安全问题作为社会价值、利益问题一再的被社会公众和学术界提出就显得不无道理。笔者认为,单机系统下的会计电算化软件的安全风险,并非来自与软件本身,即数据加密,流程控制等技术层面的细节,恰恰来自于社会,也就是对财务软件的使用者进行社会攻击。
1现状
一般的财务软件在进入操作页面时都需要输入账户和密码,系统校验正确才能登录,这是防止财务软件遭到社会攻击的第一道,也是唯一一道防线,一旦非法人员获得了正确的账户和密码,那么会计信息就无可避免的会受到侵害。社会攻击很难避免,会计人员受到攻击就难保证在不自觉得情况下将账号和密码泄露。同时会计人员在设置密码的时候很可能以诸如:111111、123456这样简单的数字组合作为密码,然而这些信息都是非常容易获取的。很多电算化软件的开发商也并没有考虑到软件的社会安全,而仅仅是将安全的重点放在了技术层面。而且由于电算化系统本身所具有的友好性,一旦进入到电算化软件的操作页面,很多非财务相关的人员都可以在短时间内完成既定的侵害目标。然而,财务软件的友好性本身是对会计工作有利的特性,用户友好性也是一般软件好坏的衡量标准,只是财务软件的特点使这个属性变得难以把握。如果UI过于友好,那么侵害会计信息的所需的时间就会缩短,如果UI不够友好,财务软件对于简化会计工作,提高工作效率的作用就会削弱。
2假设
为了研究用户友好与系统安全的`关系,提出两个假设:1、电算化软件的用户友好程度影响陌生用户对软件的操作速度。2、用户对电算化软件的熟悉程度影响用户的操作速度。为了研究上述两个假设最终结果,我们进行了两轮实验:1、从三个会计专业的班级中,挑选出已经取得会计从业资格证,并且只使用过高信版电算化软件的学生60名,让他们分别使用高信、金蝶、用友三种不同的电算化软件完成15个操作小题,统计他们最终完成这些题目的时间,获取原始数据。2、在进行过第一轮实验以后,再让这60名学生使用金蝶电算化软件,完成15个操作小题。
60名学生使用高信、金蝶、用友电算化软件完成规定题目的时间分布情况如图(单位:分钟):
60名学生使用三种电算化软件完成的规定题目的平均时间时间分别是20.47、30.52、34.83,且所用时间的分布情况也接近于正态分布。这些学生都学习过并且能够熟练地运用高信版的软件完成指定要求,而金蝶和用友两种财务软件,对于他们的友好程度要偏低。同时,他们完成题目的平均时间也有更长。因此我们提出假设:使用其他版本的财务软件完成题目所用的平均时间与高信版存在显著差异。
对两个实验组数据进行显著性检验结果如下:
使用金蝶和用友,实验者的平均完成时间明显长于高信。由此,电算化软件的用户友好程度可以显著地影响使用者的上手速度,并且友好程度越高,速度越快。
第二轮实验的目的是研究熟练程度对操作速度的影响。实验的数据情况如图:
第二次完成题目的平均时间为28.1。对两组数据进行显著性分析。
第一轮实验的的平均时间确实要显著大于第二轮,随着对软件的熟悉度上升,相应的操作速度也会变快。如果非法人员事先调查过被破坏者使用的财务软件,并且进行相应的练习,一旦获得软件的账号密码,就能够迅速对整个会计系统造成破坏。
3应对措施
對于上述安全风险,可以通过四个途径进行解决:1、建立完善的财务专用计算机管理制度。2、财务软件提供复杂校验登录方式。3、不定时身份验证系统。4、可变式UI设计体系。下面笔者进行逐一阐述。
设立财务专用计算机,安装财务软件的计算机应有专人管理,设置安全程度较高的密码。严格按照公司工作制度开关机,非工作时间该计算机不得处于运行状态。开机关机有专人监督并操作,非财务人员不得使用该计算机。杜绝非法人员私自使用计算机登录财务软件。此外,还应划分使用时间,严格按照时间表操作,避免责任不明的情况发生。
提供较复杂的校验方式,比如人脸识别,在财务软件中使用这样的登录校验方式能够降低被非法登陆的可能性。对于简易的财务软件来说,可以采取提供长密码或者随机提问的方式进行校验。随机提问是指,使用者在初始化系统时,设置一个“问题池”,在登录的时候,系统会随机从这些问题中提问,登录者回答的答案与预先设置的相同便可以登录,这样可以有效的降低社会攻击对财务软件危害。
不定时身份验证建立在随机提问的基础之上,用户在登录使用财务软件的过程中,系统会不定时的对使用者的身份进行核实:当用户在进行非法操作,或者正常使用一段时间后,系统会自动从预先设置好的“问题池”中随机抽取问题提问,使用者必须在正确回答问题以后才能继续使用软件,否则系统会自动退出。当然,合法的财务人员在使用时也会被随机提问,会相应影响工作效率。而且随机时间的长短也很难界定,因此需要大量的实践验证才能确定一个相对合理的值。
可变式UI设计体系是指用户在初始化财务软件的时候,可以自行对默认界面、工具按钮进行修改,使之形成独树一帜的用户风格。降低财务软件对非用户的友好程度。由于用户自行改变的UI与任何一款财务软件均存在区别,非法人员无法事先准备,同时用户友好度的降低,也使得非法人员的破坏难度进一步上升。每个用户的UI体系,与用户相关联,即同一台机器上的同一款软件随着登录用户的不同会呈现不同的UI体系。合法的用户不会因为自行设置的UI体系而降低工作效率,由于UI是自行设置的,在前期使用软件时,工作效率反而要高于固定UI的财务软件。
4结束语
任何一种软件的安全使用都要建立在合规的使用基础上,如果使用规章不完善,使用人员不谨慎,那么再好的防护措施都将形同虚设。建立完善使用制度,对财务人员进行必要的培训,能从根本上减少隐患,保护会计信息的安全。
参考文献:
[1]樊珊珊.目前我国会计电算化存在的问题及对策[J].会计之友,2011.
[2]盛国杰.浅论会计电算化目前的问题及对策[J].开发研究,2009.
[3]刘宁.会计电算化风险及防范[J].人口与经济,2013.
多用户多任务 篇6
摘 要:当今社会,社交网络越来越普遍,Web用户常常会在多个社交网络进行注册,从而留下大量的个人信息,这就出现了Web应用的个性化领域问题。为了充分利用分布于网络上大量的用户信息集,首先我们考虑的是用户识别的问题,解决了用户识别的问题,我们才能整合并利用这些用户信息。然而用户识别的重点又在于多属性权重的判定,同一属性权重的不同,其相似性的判断结果也会有很大差异。文章通过引入熵值确定用户档案多个公共属性的权重,然后经过相似性度量方法获得最终结果。
关键词:多属性权重判定;用户识别;熵值;相似性度量
中图分类号:TP391 文献标识码:A 文章编号:1006-8937(2015)20-0080-03
1 背景概述
社交网络的迅速普及已经改变了人们的交流方式。目前网络提供可能的方式有很多,例如微博上发布的信息,在天猫,京东上的购买物品,同时这些行为也会在网络上留下大量的用户个人数据信息。一个用户可能会注册多个社交网络或应用的账户进行不同的活动,这些注册信息扩展了该用户的不同的个性化特征。
对于一个单独的商业应用而言,就是尽最大努力收集客户的个人信息来满足客户相应的需求,为了获取用户更多的信息首先面对的问题就是跨应用的用户识别。只有同一用户被识别后才能完成用户信息的整合。本文分析了用户识别的关键问题并给出了基于多属性判定的解决方法。提出了熵值确定公共属性权重,并通过相应的相似性度量寻找相同用户。
2 相关研究
目前用于跨应用用户识别领域的主要思想是比较不同应用的用户档案,每个注册用户有一个用户档案描述自己的个人信息,如果两个用户档案相同或在一定程度上类似,就可看作同一用户。
用户档案是由Vosecky等人提出[1],通过由多个属性字段组成的向量来表示,两个用户的相似性是比较向量里不同字段表示的属性值来计算。但这种方法设计的属性和领域是紧耦合的,从而导致每一次领域的变化或个性化应用的改变都会产生权重的重计算。
Radd等[2]人提出了一种框架,通过判定算法计算两个档案的相似度。如果他们的档案相似度高于预定阀值,则认为是表示同一用户。
这种方法的主要问题是,一般默认所使用的代表用户唯一标识符IFP(Inverse Functional Property)是用户的电子邮件地址,该信息是用户私人的不能被其他人访问获取,因此作者也承认该方法并没有解决用户隐私的问题。
国内关于多属性决策问题也多用于统计学研究上,樊治平等人[3]通过建立主观和客观两个模型,为保证决策权重的最优,线性集成两个模型,并构造相应的模型函数,通过求解该函数最值得出最优权重。但该方法主观模型部分依赖专家权重,在跨应用用户识别上还存在难度。叶娜等人[4]提出的模式无关的用户识别算法则完全舍弃属性权重,实现了无需属性权重依然可以进行用户识别的目的。
3 多属性的相似性度量
用户识别的目的是推断出两个来自不同应用的两个用户档案是否是同一真实世界的实体。我们将用户档案定义为属性值对的向量,如下所示:
其中:
A是用户所有的属性集;
P是属性集对应的属性;
R是属性P的值域。
我们认为用户识别是在一个应用的用户集中找到一个可以匹配另一应用用户Us的用户Ud,在选取比较属性的时候,我们将用户模型分为公共属性部分和个性化属性部分,在比较属性相似度时我们选取公共属性部分进行比较。
但因为不同应用的异构性和语义的差异,例如不同的社交网络有不同的数据表示形式,即使是同一个属性,以生日为例,一些应用程序使用的形式DDMMYY而其他应用使用MMDDYY,所以属性相似度度量之前,用户数据应先进行标准化。此外由于属性值中可能存在近义词或相同意思不同表述的情况,所以在比较之前应该进行统一的语义映射。
两个用户的相似性是由公共属性的相似性决定的,其公式如公式1,式中,分别表示源用户与目标用户的第i个属性,表示该属性的权重。
3.1 属性相似性度量方法
目前用于属性相似性度量的方法多种多样,如Cosin,Euc-
lidean Distance,TF-IDF,simEditDistance,Dice[5]等。对于不同的属性的数据类型必须选择合适的度量方法才能大大增加运算结果的效率和准确率。
如何根据不同的属性数据动态的变换属性相似性度量方法目前依旧没有确定的结果。本文中我们选取Dice系数作为公共属性相似性的度量方法。
3.2 待选用户的筛选
在进行用户识别时,我们要做的是比较源应用的某个用户与目标应用的所有候选用户,但众所周知的是很多大型社交网站注册用户数都是非常庞大的,如Facebook拥有超过7.5亿的活跃用户,逐一比较是不现实的。根据观察,社交网络上用户经常使用相同的昵称或全名以方便互相联系。所以我们在筛选候选用户集时以昵称或全名作为关键字进行。
3.3 多属性用户相似性度量
对于相似性度量我们依据并扩展了Dice系数,Dice系数法的计算方式:两个候选集合X,Y的交集信息的2倍除以X,Y的元素的总和。公式如下:
对于本文中属性值都是字符串的相似性的计算,(2)式可扩展为如下表示:
对于单值属性,我们定义N为一组字符形式的双字母组,他们是字符串S中相邻的双字符。因此公式计算两个单值字符串S1和S2的相似性:共同的双字母组字符个数的2倍除以两个字符串双字母组字符集的总和,而对于多值属性,N是字符串S中的词集,两个多值字符串S1和S2的相似性可以通过两个字符串共同单词数的2倍除以两个字符串单词数的总和。
例如对于单值的字符串Tom和Tomy的相似性,Tom相邻的字母对是{‘To,‘om},而Tomy是{‘To,‘om,‘my}。这两集合共同的字符对是2,所以这两个字符串相似性就是2×2/5=0.8。两个多值属性”red green white”和”blue yellow red”共同词的数目是1,所以相似性是2×1/6=0.33。
4 熵值确定属性权重
多属性权重的确定大致可分为两类:一类是主观赋权法,评价人员根据主观上对各属性的重视程度来决定权系数;另一类是客观赋权法,即根据各属性间的相关关系或各值的变异程度来确定权数。刘业政等人[6]提出的自适应方法结合主客观赋权法,在专家决策的前提下,根据熵权系数计算属性权重,并根据该权重计算新的决策结果与之前结果比较,重复多次后得出最优值。
传统的系统论中的熵越大说明系统越混乱,携带的信息越少,熵越小说明系统越有序,携带的信息越多,当系统可能处于几种不同状态,每种状态出现的概率为Pi(i=1,…,n)时,则系统的熵为:
其中:
Ej表示第j个事件。
本文中我们要根据待选用户各属性的相似度确定该属性的权重,所以熵值越大,信息越混乱,该属性对用户识别的判断就越模糊,其权重应该越小,所以在这里我们对公式(4)做了扩展,将Pi替换成属性相似度指标概率。那么扩展后的公式就变成式(5)。其中表示第i个用户第j个属性的相似度。
(5)
通过扩展后的公式我们计算出待选用户每种属性的熵值,为了确保熵值最小,我们构建扩展熵值Ij:
Ij=1/Ej(6)
通过构建扩展熵值我们确定待选用户的每个公共属性结果,最后我们根据该扩展熵值构建最终权重?棕:
具体过程如下:
构建属性相似度矩阵A,其中A中的元素aij代表候选用户Xi与源用户之间公共属性的相似度。
拆分矩阵A,组成单属性相似度矩阵B,其中B中元素代表候选用户Xi与源用户之间单个公共属性的相似度。
根据矩阵B计算出每种属性熵值Ej,最终得到变种最小熵值Ij。
确定相似性权重?棕j。
带入公式(1),并确定最相似用户。
5 算 例
本节中我们提供了一个来说明如何根据上述方法进行权重判定及用户识别,源用户数据见表1。
根据源用户数据进行标准化后的待选用户数据见表2。
我们先计算待选用户属性相似度矩阵A,以U1为例,通过式(3)我们求得Nickname的相似度:2×3/(4+3)=0.8571,interest属性相似度:2×2/(3+2)=0.8。
完成用户相似度矩阵并拆分后可得四组单属性相似度矩阵:
将单属性相似矩阵中的值带入式(5),求得每一组属性的熵值Ej,其结果为:
E1=0.7722,E2=0.7067,E3=0.5786,E4=0.5749。
再根据式(6)求得:
I1=1.2950,I2=1.4150,I3=1.7283,I4=1.7394。
最后我们根据公式7,求得每一种属性的权重分别是:
得出各属性权重后,依据公式1,得用户相似度矩阵:
通过比较U1的相似度最大,所以我们认定在待选y用户中,与Us成功匹配的是U1,也就是说,U1与Us是同一用户。
6 结 语
本文提出了一种解决用户识别中多属性权重判定的方法,并给出了具体算例。通过相似值计算熵值,通过熵值求得属性权重并得出最终的用户识别结果。
这里需要单纯的使用Dice系数在复杂的多个社交网络中进行用户属性相似度的计算并不是特别准确,所以我们下一步工作的重点就是研究如何动态调整不同类型属性的相似性度量。
参考文献:
[1] Vosecky J,hong D,shen V Y.User Identification Across Multiple Social Networks[A].Proceedings of the 1st International Conference on Networked Digital Technologies:July 28-31,2009. Ostrava,Czech Republic[C].2009.[2]RAAD E,CHBEIR R,DIPANDA A.User Profile Matching in Social Networks[A].Proceedings of the 13th International Conference on Network-Based Information Systems:September 14-16,2010[C].Takayama, Gifu,Japan.IEEE Press,2010.
[3] 樊治平,张全,马建.多属性决策中权重确定的一种集成方法[J].管理科学学报,1998,(3).
[4] 叶娜,赵银亮,边根庆,等.模式无关的社交网络用户识别算法[J].西安交通大学学报,2013,(12).
[5] 张宇,刘宇东,计钊.向量相似度测度方法[J].声学技术,2009,(4):.
多用户多任务 篇7
在多用户MIMO下行系统中, 基站需要同时向多个用户传输数据, 由于多个用户的信道存在相关性, 将会产生多用户干扰, 多用户干扰会严重影响系统的和容量。所以, 选择空间正交性好的用户进行传输是十分必要的。此外, 由于基站能同时传输的用户数目不能大于基站的天线数, 所以在用户数大于基站天线数时需要进行用户选择。合理的用户选择可以获得更高的空间分集增益, 进而增加系统的和容量[7]。半正交用户选择算法 (SUS) 可以选择空间正交性好的用户进行通信[8], 减小了多用户干扰。但是SUS算法假设基站完全已知信道状态信息, 不适合有限反馈系统。目前, 大多数多用户MIMO有限反馈系统都采用固定码本方案, 通过有限的反馈比特选择本地码本, 基站和每个用户都已知码本信息, 用户根据自己的信道条件和本地码本做相关, 选择信干噪比 (SINR) 最大的一个码字, 并通过上行反馈信道将码字编号及相应的SINR值反馈给基站, 基站在预编码时, 将该码字作为该用户的预编码矩阵。目前的多用户选择方案很少考虑用户公平性的问题, 然而在实际系统中, 有时需要照顾信道条件差的用户, 比例公平调度 (PFS) 通过观察用户在一段时间内的平均吞吐量来判断用户是否被调度, 能够兼顾公平性和系统和容量[9,10]。
1 系统模型
本文考虑多用户MIMO下行链路系统, 系统模型如图1所示。基站配置N根天线, 每个用户配置单根天线, 基站可以同时与K (K≤N) 个用户进行通信, 系统用户数目为M (K≤M) 。用户k的信道系数可以表示为hk (t) ∈C1×N, 其中我们假设hk (t) 中的每个元素是独立但不同分布复高斯随机变量, 均值为0, 不同的方差代表不同的信道条件。本地码本采用LTE码本, 基站选择一个子码本作为预编码矩阵W (t) (∈CN×N) 形成N个预编码向量。W (t) 的列向量w (t) 代表一个预编码向量。每个时隙基站可以同时与K个用户进行通信, 第t个时隙第k个用户的接收信号可以表示为
式 (1) 中s (t) ∈CN×1代表基站的发送信号, 满足归一化功率限制E{s (t) s (t) *}=1, nk (t) 代表接收端的加性高斯白噪声向量, Pk是基站分配给用户k的发送功率, 满足功率限制。在本文中, 信道采用时变的瑞利衰落信道, 假设每个用户完全已知自己的信道状态信息hk。LTE码本集合设为{F (0) , …, F (G-1) }, 其中代表子码本, fm (g) ∈CN×1代表一个码字。LTE码本的特点是相同子码本的列元素之间相互正交, 不同子码本的列元素之间不正交。所以, 在选择预编码矩阵时需要选择一个子码本作为预编码矩阵, 子码本的每个码字作为用户的预编码向量。每个用户利用公式 (2) 计算和每个码字 (g, m) 的SINR, 其中g代表第g个子码本, m代表第m个码字。并选择使SINR最大的码字序号 (g, m) 和相应的值SINRk, g, m反馈给基站。
式 (2) 中k=1, 2, …, K, g=1, 2, …, G, m=1, 2, …, N, G代表子码本的个数 (由反馈比特数目决定) 。
基站接收到每个用户反馈信息, 首先对每个码字选择一个使SINR最大的用户如公式 (3) 所示, 之后按照公式 (4) 计算每个子码本能获得系统和容量, 选择子码本序号g*使得Rg获得最大值, 基站选择F (g*) 作为预编码矩阵, 即W (t) =F (g*) 。
式中P0=P/N代表每个用户的发送功率。在本文中, 只考虑等功率分配。
2 PFS方案
2.1 传统的PFS
大多数对多用户选择算法的研究都只关注系统和容量而忽视用户公平性。因此, 信道条件差的用户基本得不到服务, 在服务质量 (QOS) 敏感的系统中这些用户的服务质量不能得到保证。Jalali和Padovani所提出的PFS方案可以有效地解决用户公平性问题。在PFS方案中, 选择用户时不仅仅根据用户的瞬时吞吐量, 还需要考虑之前一段时间内该用户的平均吞吐量, 提高了信道条件差的用户被选择的机会, 兼顾了用户的公平性。用户选择的准则可以表示为:
式 (5) 中Rk (t) 代表第k个用户的瞬时吞吐量, Tk (t) 代表第k个用户之前tc个时隙内的平均吞吐量。每个时隙, Tk (t) 根据公式 (6) 进行更新。
传统的PFS方案在一个时隙仅仅选择一个用户, 但是在本文中, 基站每个时隙需要选择K个用户, 因此在多用户MIMO下行系统中需要修改传统的PFS方案。
2.2 多用户MIMO系统中的PFS
在本文中, 基站一个时隙需要选择多个用户进行数据传输, 但是对于一个码字, 每次只能选择一个用户。因此, 在第t个时隙, 基站通过传统的PFS方案对码字 (g, m) 进行用户选择:
式 (7) 中Rk, g, m (t) 代表第k个用户对码字 (g, m) 的瞬时信息速率, Tk (t) 代表第k个用户之前tc个时隙内的平均信息速率, 每个时隙根据公式 (8) 进行更新。
式 (8) 中Rk (t) 代表用户k在第t个时隙的瞬时信息速率。
3 用户选择方案
在本文中, 我们选择LTE码本作为本地码本, 子码本的个数由反馈比特数决定, 而每个子码本的码字数目由基站的天线数决定。
第k个用户通过下行导频信道获取信道状态信息, 计算和每个码字的SINR数值SINRk, g, m。之后选择使得SINR最大的码字序号 (g*, m*) , 通过上行反馈信道用户k将SINRk, g*, m*和相对应的码字序号 (g*, m*) 反馈给基站。基站接收到每个用户的反馈信息, 通过以下过程进行用户选择。
步骤1:对于每个码字 (g, m) , 选择用户k*使Rk, g, m (t) /Tk (t) 最大。
式 (9) 中Rk, g, m (t) =lg (1+P0SINRk, g, m) 。
步骤2:对于每个子码本g, 计算子码本容量Rg (t) 。
步骤3:选择g*=arg 1m≤ga≤xGRg (t) 使Rg (t) 获得最大值, 因此预编码矩阵为W=F (g*) , 系统和容量为R (t) =Rg* (t) 。
步骤4:通过公式 (8) 更新Tk (t) 。
上述算法为考虑用户公平性的PFS算法, 如果不考虑用户公平性只是基于系统和容量, 则在步骤1时选择用户根据公式 (11) , 并且不需要步骤4。
4 仿真结果
本节将给出仿真结果, 观察采用PFS方案和基于和容量方案的有限反馈多用户MIMO系统的用户公平性和系统容量。为了比较不同信道条件用户的公平性, 这里通过不同的方差来区分不同信道条件的用户。假设在所有的用户中, 四分之一用户服从CN (0, 1) 分布, 四分之一用户服从CN (0, 1/2) 分布, 四分之一用户服从CN (0, 1/4) 分布, 其余用户服从CN (0, 1/8) 分布。基站配置4根天线, 即N=4, 每个用户配置单天线。反馈比特数可以选择2或者4, 因此根据LTE码本的产生方式可以有1或者4个子码本。发送功率为P=10 d B, 观察窗口tc=100。采用100 000次Monte-Carlo仿真得到仿真曲线。
图2给出了2个反馈比特和4个反馈比特时, 分别采用PFS方案和基于容量的方案的系统和容量曲线。由仿真图可以很容易地看出当采用相同的方案时, 反馈比特数越多系统和容量越大, 这是由于更多的反馈比特可以携带更多的信道状态信息, 本地LTE码本数目增加, 可以获得更高的码本增益。当反馈比特数目一定时, 基于和容量的方案可以获得更高的系统和容量, 这是因为此时选择用户仅仅以和容量为依据没有考虑用户的公平性。此外, 随着用户数目的增加两种方案的差距逐渐增加, 这是因为基于和容量的方案不受信道条件差的用户的影响, 但是PFS方案由于需要照顾更多的信道条件差的用户, 使二者差距逐渐增加。
图3和图4对比了两种方案的用户公平性, 这里假设用户数目固定为16个。本文中, 将每个用户获得的平均信息速率作为衡量用户公平性的标准。从仿真图中可以很清楚地看出与基于和容量的方案相比, PFS方案中信道条件差的用户获得了更多的信息速率。此外, 比较图3和图4还可以看出, 2比特反馈可以获得更好的用户公平性, 这是因为当反馈比特数目较大时, 可以产生更多的子码本, 这时每个子码本的虚拟用户数将会减少, 没有足够的用户供基站选择, 这对于信道条件差的用户是不利的。
为了观察信道条件差的用户被服务的情况, 图5给出了信道条件最差的用户所获得信息速率随用户数目的变化曲线, 即服从CN (0, 1/8) 分布的一组用户的平均信息速率随用户数目的变化曲线。从仿真曲线可以看出, 当用户数较少时, 2比特反馈PFS方案的用户能够获得更好的公平性, 信道条件差的用户能够获得更好的服务。但是当用户数目增加时, 2比特反馈PF方案和4比特反馈PFS方案的性能逐渐接近, 而4比特反馈PFS方案能够获得更高的系统和容量。所以, 在有限反馈LTE系统中, 如果用户数目较少, 可以采用更少的反馈比特来节省带宽利用率和提高用户公平性, 当用户数目较大时, 可以采用更多的反馈比特来提高系统的和容量。
5 结论
本文研究了有限反馈多用户MIMO系统下行链路的用户选择算法, 采用LTE码本作为有限反馈码本, 比较了基于和容量的方案和考虑用户公平性的PFS方案, 并深入地分析了反馈比特数目和用户数目对系统和容量和用户公平性的影响。从仿真结果可以看出, PFS方案可以兼顾系统和容量和用户公平性;当用户数目较少时, 可以用更少的反馈比特获取用户公平性和带宽效率, 当用户数目较大时, 可以用更多的反馈比特来提高系统和容量。
摘要:在多用户多输入多输出 (MU-MIMO) 下行链路系统中, 通过合理的用户选择可以提高系统的空间分集增益。大多数目前的研究中, 往往假设基站完全已知每个用户的信道状态信息 (CSI) , 不适用于有限反馈系统。此外, 目前的用户选择算法很少考虑用户的公平性。为了有效地解决这两个问题, 采用LTE码本作为本地码本, 提出了有限反馈系统下考虑公平性的用户选择方案。并且深入地分析了反馈比特数和用户数对公平性和系统和容量的影响。仿真结果显示, 当用户数目较少时可以用更少的反馈比特来获取公平性和带宽利用率, 当用户数目较大时可以用更多的反馈比特数获取更高的系统和容量。
关键词:MU-MIMO,用户选择,用户公平性,有限反馈
参考文献
[1] 3 GPP.Evolved Universal Terrestrial Radio Access (E-UTRA) .Physical channels and modulation.3GPP TS 36.211 version 10.0.0Release 10, 2011
[2] Caire G, Shamai S.On the achievable throughput of a multiantenna Gassian broadcast channel.IEEE Transactions on Information Theory, 2003;49 (7) :1691—1706
[3] Spencer Q H, Swindlehurst A L, Haardt M.Zero-forcing methods for downlink spacial multiplexing in multiuser MIMO channels.IEEE Transactions on Signal Processing, 2004;52 (2) :461—471
[4] Masoud, BabakHassibi.On the capacity of MIMO broadcast channels with partial side information.IEEE Transanctions on Information Theory, 2003;51 (2) :506—522
[5] Taesang Y, Jindal N, Goldsmith A.Multi-antenna downlink channels with limited feedback and user selection.IEEE Journal on Selected Areas in Communications, 2007;25 (7) :1478—1491
[6] Huang K, Hearth Jr R, Andrews J.Space division multiple access with a sum feedback rate constraint.IEEE Transactions on Signal Processing, 2007;55 (7) :3879—3891
[7] Wang Youxiang, Hur Sooyung, Park Yongwan, et al.Efficient user selection algorithms for multiuser MIMO systems with zero-forcing dirty paper coding.IEEE Journal on Communications and Networks, 2011;13 (3) :232—239
[8] Yoo T, Goldsmith A.On the optimality of multiantenna broadcast scheduling using zero-forcing beamforming.IEEE Journal on Selected Areas in Communications, 2006;24 (3) :528—541
[9] Sharma, Naresh.A Study of opportunism for multiple-antenna system.IEEE Transactions on Information Theory, 2006;51 (5) :1804—1814
直接序列扩频多用户检测算法 篇8
1 最优多用户检测算法 (ML)
不确定性最优多用户检测算法是1986年Verdu提出的最大似然 (ML) 多用户检测算法。对于同步CDMA系统, 接收信号的最佳解调向量如下表示:
对于CDMA系统中同时传送信息的K个用户来说, 每个用户传送信息bk的取值有+1和-1两种可能, 向量B=[b 1, b 2, , ......b K]T的组合有2K种, 这种算法的目的就是要从种组合的用户信息向量中找出一种使似然函数最大的输出信息向量。使用该算法时, 用户每发送一个比特信息, 该算法的复杂度为O (2K) 。实际的CDMA系统具有相当庞大的活动用户数量, 该算法的复杂度随用户数量的增加呈指数上涨, 实际的系统中该算法运算的复杂度会使得系统难以忍受。
2 解相关多用户检测算法 (DEC)
多址干扰是由于不同用户的扩频码不能完全正交引起的。抑制多址干扰的影响, 去除所有用户扩频码之间的相关性, 是解相关检测的基本思想。
考虑离散CDMA信号模型。
第一步, 用转置后的扩频码集矩阵S左乘信号Y得到匹配信号Z。
其中R=SST, 叫做相关矩阵, 第一步的处理实质上就是对每个用户进行匹配的单用户检测。
第二步, 对相关矩阵R求逆, 得到R-1。
第三步, 用R-1左乘第一步中得到的匹配信号z, 并对结果进行判决。
由于需要计算相关矩阵的逆矩阵, 使得解相关多用户检测算法的计算复杂度达到了O (k3) 。
3 最小均方多用户检测算法 (MMSE)
最小均方 (MMSE) 多用户检测算法同时考虑了背景噪声和多址干扰, 该多用户检测算法的实质是使发送的信息与检测输出数据的均方误差最小, 即代价函数E[B-TY2]最小, 其检测过程如下。
其中R=SST为相关矩阵, A为振幅矩阵, ∂2为高斯白噪声的方差。将线性变换矩阵与匹配滤波器组输出向量相乘得到最小均方误差检测器输出, 再对此输出进行判决。
和解相关多用户检测一样最小均方多用户检测算法也需要计算相关矩阵的逆, 在运算复杂度上相对解相关多用户检测算法没有改变。
参考文献
[1]Verdu S.Multiuser detection[M].Cambridge University Press, 1 99 8.
[2]R.Kohno, M.Hatori, H.Imai.Cancellation technique of co-channel interference in asynchronous spread spectrum mul-tiple access systems[J].Elect.And Comma.In Japan, 1983, 66:20~29.
多用户多任务 篇9
近年来,由于其在空间复用和高数据速率上的优势,多天线系统获得了相当广泛的研究。下行多用户多天线系统的预编码技术,已成为无线通信中的一个研究热点。
信息理论研究表明,脏纸编码[8]可以逼近下行多用户多天线系统的容量限[9]。然而,脏纸编码虽然有最优的性能,但是作为一种理想的非线性预编码,它的复杂度太高而无法实际应用。Tomlinson-Harashima预编码(THP)作为一种低复杂度的非线性预编码方式,获得了广泛的研究。
根据预编码矩阵的设计准则不同,THP大致可以分为迫零和最小化均方误差两种方式[1]。迫零THP通过前馈矩阵,反馈矩阵和求模运算三部分消除用户间干扰 [2]。本文针对迫零THP进行讨论。
实际系统中往往存在大量用户,利用用户信道的时变特性,选择性能优越的用户集合,可以获得多用户分集[7]。贪婪调度是一种普遍的获取多用户分集的调度方法[3,4]。
平均误符号率是THP的一个重要的性能评价标准[1,2]。文献[1]讨论了在已知激活用户集合情况下,一种最小化平均误符号率的排序方式"best-first",并证明了这种排序方式是最优的。
本文通过分析THP及误符号率的特点,提出了一种低复杂度调度排序算法,该算法把调度和排序结合在一起,有效降低了复杂度,并且可以获得逼近贪婪调度best-first排序算法的平均误符号率性能。
2 系统模型
在下行多用户多天线系统中,假设基站有T根发射天线,系统中有K个用户,每个用户有1根天线。系统模型可以这样表示
其中x∈⌷T×1代表基站端的发射信号,H∈⌷K×T是信道矩阵,设每个用户的信道矩阵为hi∈⌷1×T,则H=(h
实际系统中,假设K>T,迫零THP中最多可以形成min (K,T)=T个等效平行信道,为了实现最大的空分复用,需要从K个用户中选出T个用户,并进行排序。设选出用户信道矩阵排序后构成的集合为∏={hπ(1),hπ(2),……,hπ(T)}。
下行多用户多天线系统中THP的结构框图如图 1所示。
在下行多用户多天线系统中,前馈矩阵和反馈矩阵的处理都在发射端进行。MOD是求模操作,保证发射信号的功率限制。前馈矩阵和反馈矩阵可以通过QR分解获得[3]。
其中S是一个下三角矩阵,F是一个酉阵。反馈矩阵可以由F直接得到,对于前馈矩阵,由于需要满足B的对角线元素为1,首先定义增益矩阵:G=diag(s
在接收端,经过相应的求模运算和标量判决即可以恢复出原始信号。 THP把信道分解为M个并行的加性高斯信道(AWGN)。则接收端第i个用户的信噪比(SNR)为:
其中σ
在本文中,我们以平均误符号率作为性能判断标准。设P(sii)为对于等效信道增益|sii|2的误符号率,记平均误符号率为PAVG,有:
误符号率是与调制方式和接收端的SNR相关的,所以在某种调制方式下,平均误符号率由接收端SNR决定,也就是sii决定。
3 新的调度排序算法
贪婪调度[3]是一种常用的调度算法,Best-first是最小化误符号率的一种最优排序算法[1],将二者结合可以实现调度排序,即"贪婪调度best-first排序",关于算法的详细流程参见文献[1]和[3]。然而,由于贪婪调度和best-first排序分步进行,复杂度较高,为了降低复杂度,我们根据以下两个特点,提出下面的新算法。
由公式(4)和公式(5)可知,误符号率有如下两个特点:
a) 无论何种调制方式,P(sii)是关于接收端SNR的单调递减函数,故,P(sii)是等效信道增益|sii|2的单调递减函数;
b) 最大的P(sii)对最小化PAVG影响最大,即具有最小sii值的P(sii)将对PAVG影响最大。
设最后得到的调度排序结果为∏={hπ(1),hπ(2),……,hπ(T)}。在∏={hπ(1),hπ(2),……,hπ(T)}中,π(T)是最后编码的用户,它需要经过到hπ(1),hπ(2),……,hπ(T-1)的零空间的T-1次映射,因此,其等效信道增益|sπ(T)π(T)|2将会是最小的。根据特点a、b,|sπ(T)π(T)|2的大小将对最小化PAVG产生最大的影响。因此,如果可以最大化|sπ(T)π(T)|2,对PAVG的最小化是非常有意义的。新的调度排序算法根据上述特点,利用贪婪调度本身的特性,将调度和排序结合在一起,实现|sπ(T)π(T)|2的最大化。
新的调度排序算法描述如下。引入p∈⌷T×T为计算过程中的映射矩阵,Φ为未处理用户。
初始化:置Φ={1,2,……,K},∏=φ,p=IT×T
循环选择过程:
for i=1:T
对任意i∈Φ,计算h
end
最后,得到调度排序的结果: ∏={hπ(1),hπ(2),……,hπ(T)}。
新算法相当于在贪婪调度排序的基础上对排序结果进行反序,利用贪婪调度时按照等效信道增益从大到小依次选出排序的顺序特性[3],将最先选出的具有最大信道增益的用户π(T)放在最后编码,从而保证最小等效信道增益|sπ(T)π(T)|2的最大化。根据前面分析,这对性能提高是非常有意义的。算法在贪婪调度基础上反序,我们形象的称之为"greedy-reverse"。新算法将调度和排序结合在一起,很好的降低了复杂度,从下节的仿真结果可以看出,它具有逼近贪婪调度best-first排序的性能。
4 仿真结果
我们做出了四种算法的仿真结果:随机选择(random)、贪婪调度排序(greedy)、贪婪调度best-first排序(greedy-bestfirst)和本文的新算法(greedy-reverse)。random是随机选择T个用户随机排序。Greedy是贪婪调度选择T个等效信道增益最大的用户顺序排序。数据调制方式采用16QAM。图 2给出了在发射天线数目为3,用户数目分别为3、12、20的结果。图 3给出了在发射天线数目为4,用户数目分别为4、12、20的结果。
在用户数目和发射天线数目相等的情况下,greedy结果最差,random次之,greedy-bestfirst最好,greedy-reverse略差于greedy-bestfirst。由于用户数和发射天线数相等时,greedy算法中信道增益最大的用户最先编码,增益次之的用户投影在已编码用户的零空间上,不断循环进行,最后一个信道增益最小的用户需要映射到其他所有用户上,导致最后用户等效信道增益的最小化,故greedy平均误符号率性能将是最差的。Random随机选择,性能居中。Greedy-bestfirst在K=T时并不需要调度来选择用户集合,仅进行best-first排序,与[1]的结果完全吻合。Greedy-reverse性能介于random和greedy-bestfirst之间,与greedy-bestfirst基本重合。
当用户数为12和20的时候,greedy、greedy-reverse、greedy-bestfirst相对random都有较大的性能增益,greedy性能增益最小,greedy-reverse与greedy-bestfirst基本重合。究其原因,greedy只利用了用户调度带来的增益(多用户分集),而greedy-bestfirst和greedy-reverse同时利用了多用户分集和排序增益。greedy-reverse性能与greedy-bestfirst基本重合,可见,反序操作是一种非常有效的策略,也说明上节的分析是完全合理的。
综上所述,greedy-reverse可以获得逼近greedy-bestfirst的性能。接下来,我们将分析新算法在复杂度上的优势。
5 复杂度分析
我们对贪婪调度、贪婪调度best-first排序和新的调度排序算法进行复杂度对比,以说明新算法的实用价值。
以浮点运算次数(flops)来代表每种算法的复杂度。一次浮点运算(flop)代表一次实数的加法,减法,乘法或除法运算,所以,完成一次复数的加法或减法需要2flops,完成一次复数的乘法或除法需要6flops。复矩阵加法Am×n+Bm×m需要2mn flops,复矩阵乘法Am×n×Bn×p需要mp(8n-2) flops。调度过程中需要用到的典型矩阵运算的运算次数如表 1所示。其中,h∈⌷1×T,p∈⌷T×T,s2是一个实数。我们用φ表示各种算法需要的浮点运算次数。
首先讨论新的调度排序算法,根据流程和表 1,有
对贪婪调度排序算法,有
贪婪调度best-first排序算法先利用贪婪调度进行激活用户选择,再利用best-first进行用户排序,其复杂度为:
从公式(6)和(7)可以看出,新的调度排序算法复杂度与贪婪调度排序算法复杂度完全一致。
图 4、图 5给出了新的调度排序算法相对于贪婪调度best-first排序算法的算法复杂度比率,新的调度排序算法可以带来复杂度的降低。
6 结语
在本文中,我们根据THP和误符号率的特点,提出了一种新的低复杂度调度排序算法,新算法将调度和排序结合在一起。仿真结果表明,新的调度排序算法具有逼近贪婪调度best-first排序算法的平均误符号率性能;并且新算法比贪婪调度best-first排序算法的复杂度更低。因此,新算法具有很好的实用价值。
参考文献
[1]J.Liu and W.A.Krzymień.Improved Tomlinson-Ha-rashima precoding for the downlink of multiple antennamulti-user systems[A].In Proc.2005 IEEE WirelessCommun.and Networking,NewOrleans,LA,USA[C],2005:466~472.
[2]C.Windpassinger,R.F.H.Fischer,T.Vencel,andJ.B.Huber.Precoding in multiantenna and multiusercommunications[J].IEEE Trans.Wireless Commun.,2004,3:1305~1316.
[3]Z.Tu and R.S.Blum.Multiuser diversity for a dirty pa-per approach[J].IEEE Commun.Lett.,2003,7(8):370~372.
[4]J Jiang,RM Buehrer,WH Tranter.Greedy schedulingperformance for a zero-forcing dirty-paper coded sys-tem[J].IEEE Trans.Commun.,2006,54(5):789~793.
[5]M.Tomlinson.Newautomatic equalizer employing modu-lo arithmetic[J].Electron.Lett.,1971,7:138~139.
[6]H.Harashima and H.Miyakawa.Matched-transmissiontechnique for channels with intersymbol interference[J].IEEE Trans.Commun.,1972,20(4):774~780.
[7]David Tse and Pramod Viswanath.Fundamentals of wire-less communications[M].Cambridge University Press,2005.
[8]M.Costa.Writing on Dirty Paper[J].IEEE.Trans.In-form.Theory,1983,IT-29:439~441.
[9]G.Caire and S.Shamai.On the achievable throughput ofa multi-antenna Gaussian broadcast channel[J].IEEETrans.Inform.Theory,2003,49(7):1691~1706.
友嘉多品牌机床满足不同用户要求 篇10
“整个机床市场应该说这一两年都不算太好,我们一季度跟2015年同期基本持平。单机市场肯定下滑,但自动化生产线,包括单机自动化和整厂整线的订单有增加,所以整体上能够持平。另外友嘉集团2016年年初又整合了数家企业,这对销售资源又是一个补充,所以这也弥补整个市场的下滑。”马占明说。
友嘉经过26年的发展,目前在全球已经拥有超过60个制造工厂,坐落于11个国家,所有的数控机床都是一家一家通过收购、兼并而来。这些被并购的所有企业都在短时间内实现了扭亏为盈。马占明说,友嘉在2016年并购了齐重数控、韩国的DSK以及几家意大利的磨床企业,目前企业经营情况都还不错。
我国的机械工业进入了新的发展格局,单机自动机和自动化生产线会越来越普及,在这方面,友嘉走了行业前头。马占明说,友嘉在自动化方面进行了提前布局,友嘉有自动化推进科;还有营业技术科,营业技术科主要做工艺;另外还有高端的战略大项目推进部。有这三个部门,就可以很好地在自动化方面推进了。
友嘉的机床主要服务于汽车行业,马占明说,汽车制造行业是友嘉机床最大的用户,经过他销售的机床有百分之六七十都到了汽车行业。他说,友嘉已经给长安做了五条生产线,柳州五菱也有几十个加工单元,长安福特有一条生产线也属于友嘉集团的品牌。由于友嘉的机床品牌涵盖各种档次,因此可以满足不同用户的需求。给长安汽车缸体缸盖的生产线用的就是友嘉的品牌,而且提供是整线的解决方案,包括机加工、清洗、检测、润滑以及废气的处理等,都是友嘉提供的方案。客户的要求越来越高,友嘉的解决方案也越来越完善。
在给汽车整机厂配套的零部件企业里,友嘉的机床更多。马占明说,像连杆、制动盘、凸轮轴等关键零部件,大部分给北京奔驰和华晨宝马这些高档汽车配套。
眼下,国内汽车零部件产业也在升级,不管从精度上是还从效率上考虑,他们都在提升自己。
多用户多任务 篇11
电脑转账收费10元封顶
用户普遍称不适应
2013年11月6日,支付宝在其官方网站发布公告称,从2013年12月4日起,在电脑上进行支付宝账户间转账将收取手续费,费率一律为0.1%,起收门槛为0.5元,10元封顶,按每笔交易收费。这意味着,即便是只转账1元,也要交0.5元的手续费用。
公告还称,淘宝、天猫卖家及其他商户使用支付宝账户间转账服务的费率标准不变,交易付款账户及其关联账户的收费标准相同。其中,支付宝账户间转账服务包括:转账到账户、我要收款、交房租、送礼金、AA收款、收款主页等。如产生费用,将统一向创建者收取。
广埠屯某格子铺老板马馨告诉记者,该店铺每天的现金流水不少,如果每笔交易都用现钞结算,一是当面交易费时,二是验钞很麻烦,由于很多人都有支付宝,所以便常常直接把钱转入对方的支付宝账户,很方便,买卖双方都省心。
“以前转账都是在电脑上操作,现在电脑上转账要收费,只好用手机操作了。”马馨表示,习惯了用电脑操作,一下子换成手机支付很不习惯。在淘宝上卖丝袜的店主罗小姐也有此感受,她称:“有时候一天要给十多个客户转账,而袜子的利润本来就薄,如果电脑转账要收费,那成本就高了。”
支付宝称目的不在收费
意在引导用户转向无线端
支付宝此举意欲何为?是要撕下第三方支付担保的伪装,还原网络银行的本来面目?
根据支付宝公开的数据,截至2012年12月,支付宝在全国有8亿注册用户。即便只有十分之一的支付宝用户使用电脑转账,按0.5元的起收门槛计算的话,手续费也是相当可观。
支付宝公关部相关负责人告诉记者,收费是针对用电脑转账,在手机端使用“支付宝钱包”转账仍继续免费。“如果真要赚取手续费,就不会在关上一扇门的同时打开一扇窗。收费的目的是鼓励用户多用手机支付宝钱包,培养用户的使用习惯。”不过,为何要引导用户放弃电脑端,改用无线移动端,该负责人没有回应。
电商观察员鲁振旺向记者表示:“显而易见,支付宝此次调整是希望个人客户由PC端向移动端转移,促进移动端用户群壮大,进而改变大家的消费习惯,因为移动端才是未来支付的核心。”
线下银行反其道推优惠
长期来看支付宝仍具优势
然而,就在支付宝调整转账费率之时,许多银行却反其道而行之,纷纷推出转账免费的优惠活动。
记者了解到,12月31日前,招商银行的金卡用户能享受网银转账免费优惠,而中国银行个人网银理财版则对转账手续费推出八折优惠,贵宾版完全免费。此外,招商银行还推出了一款卡片,只要存入1000元,就能免去所有转账费用。“年底是银行资金回笼的紧要关头,为了吸引客户,银行一般都会推出转账优惠或免费活动。”某股份制银行的工作人员告诉记者。
不过记者发现,银行普卡转账免费一般都是阶段性的,而此前免费的“超级网银”也要开始收费。
鲁振旺强调,“支付宝电脑转账收费对个人客户影响较大,部分用户可能不再使用支付宝转账,转而投向银行怀抱。但从长期来看,支付宝转账费率还是要比银行便宜,因而其优势依然存在”。
■专家
收费将成互联网金融趋势
从最初的现金结算到银行网点转账,再到网银,甚至支付宝,这是大多数老百姓近年来转账方式的变化轨迹,出现这种变化最关键的因素就是费用。
“支付宝从最初的免费到形成规模,再到收费,这是商家的一种营销手段。”中南财经政法大学教授肖春海表示,未来电商金融业务的变化依然会遵循这种从免费到收费的模式。
“银行的业务推广也是这样做的。”他进一步解释,收费主要取决于成本和收益的关系。任何电商金融业务都会产生一系列成本,在免费阶段这些成本由电商承担。但随着客户规模扩大,这种成本也在扩大。“当电商认为成本过高,且扩大市场的目的已经达到,就会开始收费了。”
肖春海表示,电商做出收费决定,必然已经考虑过该业务对商家的贡献以及商家的依赖性,因此收费对于商家的长期影响并不大。
多用户多任务 篇12
关键词:多用户,多输入多输出,中继
无线通信系统中的一些新业务增大了对移动通信系统容量的要求,且原有通信系统中资源不足的现象将更趋严重。针对频谱资源的有限性,如何有效地提高频谱和功率的利用率是一个亟待解决的问题,这方面有两个主要的研究进展。
第一个是近十年来得到充分发展的多输入多输出(MIMO)通信技术[1,2]。它是利用空间资源实现高速率链路传输的一种有效方式,能够在不增加额外频谱和功率的情况下显著增加通信系统的传输速率和可靠性,被公认为是下一代移动通信中的关键技术之一。目前,已经有不少关于点对点的单用户MIMO系统的研究。在实际应用中,系统往往需要一个基站(BS)同时和多个移动台(MS)进行通信。因此,有关点对多点的多用户MIMO(Multi-user MIMO)系统的研究也就应运而生。多用户的多天线配置带来许多好处:多天线具有的分集增益可以提高误比特率性能,多天线的复用增益使多用户的信道容量域扩大。
另一个研究进展是基于网络结构中引入中继(Relay)的协作通信的研究,以及它与MIMO链路技术的融合[3]。在蜂窝网中加入中继,并在链路传输及调度中引入协作通信的思想和基于中继的分布式处理技术,被认为可以在不明显改变骨干网络结构的同时显著提高网络传输性能,解决或部分解决蜂窝网存在的问题。研究表明,基于中继的无线通信网络结构可以有效地降低由于路径损耗所造成的功率资源的浪费,提高频谱利用率,并可利用自组织Ad hoc网的多跳连通思想提高网络的抗毁性能,所以基于中继的网络结构及其协作分集和协作多路技术得到了国内外学者的广泛重视。
1多用户MIMO系统
实际应用中基站需要同时与多个用户通信,由于基站是采用多个天线,因此当用户也配备多根天线时,则基站到每个用户都构成一个MIMO信道,此时的系统称为多用户MIMO系统[4,5]。
1.1系统模型
如图1所示即为多用户MIMO系统模型。上行链路被称作MIMO多址接入信道(MAC),下行链路则为MIMO广播信道(BC)。
1.2下行多用户MIMO
当基站将占用相同时频资源的多个数据流发送给同一个用户时,即为单用户MIMO(SU-MIMO);当基站将占用相同时频资源的多个数据流发送给不同的用户时,即为多用户MIMO(MU-MIMO)[6]。基本上有两种实现MU-MIMO的方式,其主要差别是如何进行空间数据流的分离。一种方式是采用每用户酉速率控制(PU2RC)方案,另外一种是采用迫零(ZF)波束赋形方案。
如图2所示,在PU2RC方案中,数据流的分离是在接收端进行的,它通过利用接收端的多根天线对干扰数据流进行抵消(Canceling)和陷零(Nulling)达到分离数据流的目的。
相反地,如图3所示,在ZF波束赋形方案中,空间数据流的分离是在基站进行的。基站利用反馈的信道状态信息,为给定的用户进行波束赋形,并保证对其他用户不会造成干扰或者只有很小的干扰,即传输给特定用户的波束对其他用户形成了零陷。此时,理论上终端只需要使用单根天线就可以工作。
1.3上行多用户MIMO
与下行多用户MIMO不同,上行多用户MIMO是一个虚拟的MIMO系统,即每一个终端均发送一个数据流,但是两个或者更多的数据流占用相同的时频资源,这样从接收机来看,这些来自不同终端的数据流可以被看做来自同一个终端上不同天线的数据流,从而构成一个虚拟MIMO系统。
当终端存在两根或者更多根天线时,可以将MU-MIMO与传输天线选择结合起来使用。
2 中继协作的多用户MIMO系统
考虑一个由多对用户同时进行通信的情景,每个用户都配备多天线,如图4所示。图中起中继作用的可以是协作的用户,也可以是附近的中继站。在源端,S1,…,SL相互协作,可以起到发射分集的作用,在目的端,D1,…,DL相互协作,可以起到接收分集的作用;在中继部分,起中继作用的各用户或者中继站也相互协作,因此,能充分区分开各用户之间的干扰,而在下行部分,可以根据信道的完全状态信息或部分信道状态信息,采用分布式的波束形成或者分布式的统计波束形成来抑制多用户干扰。
对于这样的通信情景,可以根据参加中继的中继站个数来分别设计协作方案:
(1)没有中继站参与。这种情况对应于在同一个中继站范围之内只有用户参与协作来传输数据的情况。中继站根据收集到的信息,决定哪些用户参与中继协作,转发发射端的数据,此时的中继站并不参与协作,只是起到控制作用。
(2)有一个中继站参与协作。这种情况对应于在同一个中继站覆盖范围内有用户参与协作,同时中继站也参与协作的情况。中继站不仅根据收集到的信息,决定哪些用户参与中继作用的协作,而且还参与与用户的协作,共同协作传输发射端的数据。此时的中继站参与协作,不仅起到控制作用,而且还参与协作,转发信息。
(3)有多个中继站参与协作。这种情况对应于在不同中继站覆盖范围内有用户参与协作同时也有中继站参与协作的情况,即跨中继站协作。这时,需要基站来调度参与协作的中继站,同时协作中继站决定哪些用户参与中继作用的协作。
3 仿真与性能分析
考虑这样一个简单的中继协作多用户MIMO系统。有两个配备两根天线的用户A1和A2分别要发送数据到另两个配备两根天线的用户B1和B2,A1A2和B1B2之间有一个收发天线数均为N的中继站R。
当N=4时,A1A2和B1B2通过中继站R进行通信的SER性能曲线如图5所示。
由此看出,我们可以在保证系统稳定性的情况下,利用中继站改善系统的覆盖能力,降低由于路径损耗所造成的功率资源的浪费。
既然增加中继的两跳传输可以保证系统的稳定性,那就可以考虑当中继站配备不同天线数时,考查一下系统的性能改变情况。如图6所示即为当上述用户A1A2和用户B1B2在中继站配备的收发天线数分别为2根、4根和8根的情况下,中继端的SER性能比较。
可以看出,当中继站的收发天线数增加时,系统的SER性能可以得到明显的提高。所以实际系统中,可以考虑在不显著增加系统复杂度的前提下,通过增加中继站的收发天线数,来提高系统的性能。
4 结束语
作为下一代无线通信系统的一种典型应用场景,多用户MIMO系统越来越得到人们的重视。相对于单用户MIMO系统,它所需要考虑的问题更为复杂。而基于中继协作的多用户MI-MO系统也具有很多的优势,可以大幅改善现有网络的性能,增加现有蜂窝网的覆盖范围,是未来无线通信网络的发展方向。但实际系统信道的变化,信道估计的误差、反馈时延等因素会使用户间干扰无法完全消除,而中继站的设计建设过程中,也要考虑其复杂度和完成的功能之间的折衷。这些问题都对基于中继协作的多用户MIMO系统的研究、设计和应用形成挑战,有待进一步深入研究。
参考文献
[1]Paulraj A,Na bar R,Gore D.Introduction to Space-Time Wireless Communications.UK:Cambridge University Press,2003:199~216
[2]Tse D,Viswanath P.Fundamentals of Wireless Communication.UK:Cambridge University Press,2004:554~564
[3]Nicholas L J,Gregory W W.Distribution space time coded protocols for exploiting cooperative diversity in wireless networks.IEEE Transaction on Information Theory,October2003,49(10):2415~2425
[4]陈旭彬,杨大成.多用户MIMO:下一代移动通信关键技术.移动通信,2007,(10):101~104
[5]常永宇,宋扬.下一代无线通信系统的多用户MIMO技术.现代电信科技,2006,(7):50~53