网络炒作

知名网络推手团队,专业致力于活动事件、网红明星、品牌公司的网络炒作和热点推荐!
本站是国内知名网络推手团队:一诺网络推手公司。常年从事网红明星、品牌公司等网络炒作业务。微信:

网络炒作具有传播速度快的特点。通过文字、图片、视频等信息的互动交流。在客户或营销人员与目标客户之间,可以用来加深客户对公司的印象,最终达到网络炒作的目的。
总结83篇文献:深度强化学习的炒作、反思与回归原点
  • 2020-09-25 03:26

作者|侯玉卿和陈宇荣

深度强化学习是深度学习和强化学习相结合的产物,融合了深度学习对视觉等感知问题的强大理解能力和强化学习的决策能力,实现了端到端的学习。深度强化学习的出现使得强化学习技术真正实用,能够解决真实场景中的复杂问题。自2013年DQN (deep Q network)出现以来,深度强化学习领域出现了大量解决实际应用问题的算法和论文。本文将阐述深度强化学习的发展现状,并对未来进行展望。

1

深度强化学习的泡沫

2015年,DeepMind的Volodymyr Mnih等研究人员发表了一篇关于《自然》中通过深度强化学习实现人层面控制的论文;控制复杂的机器运行。可见RL领域还有太多问题需要改进和规范。

那么,RL接下来应该如何突破呢?

4

重新审视强化学习

对DRL和无模型RL的质疑和讨论将使我们能够重新审视RL,这将极大地有利于RL的未来发展。

4.1重新审视DRL的研究和应用

DQN和AlphaGo令人印象深刻,但这两项任务本质上相对“简单”。因为这些任务的环境是确定的、静态的,状态主要是离散的、静态的、完全可观测的,反馈是确定的,代理是单一的。目前,DRL在解决一些可见状态任务(如星际争霸)、连续状态任务(如机械控制任务)、动态反馈任务、多智能体任务等方面还没有取得惊人的突破。

DRL成功的任务本质上相对简单。这个方向的突破将对视频预测和NLP中的很多任务产生广泛的影响。

(无模型)方法探索行为的安全性。与基于模型的方法相比,无模型方法缺乏预测能力,使得其勘探行为更加不稳定。一种研究思路是结合贝叶斯方法对RL agent行为的不确定性进行建模,以避免过于危险的探索行为。另外,为了安全地将RL应用到真实环境中,可以借助混合现实技术在模拟器中划定危险区域,通过限制代理的活动空间来限制代理的行为。

关系RL。近年来,研究推理和预测对象之间关系的“关系学习”引起了学术界的广泛关注。关系学习往往在训练中建立状态链,中间状态与最终反馈脱节。RL可以将最终的反馈传回中间状态,实现有效学习,因此成为实现关系学习的最佳途径。2017年DeepMind提出的VIN。

处理其他模态输入。在自然语言处理领域,自然语言处理已经被用于处理许多模态数据,如句子、文本、知识库等。但在计算机视觉领域,RL算法主要通过神经网络提取图像和视频的特征,很少涉及其他模态数据。我们可以探索将RL应用于其他模态数据的方法,例如处理RGB-D数据和激光雷达数据。一旦某类数据的特征提取难度大大降低,与RL有机结合后就有可能在AlphaGo层面实现突破。英特尔研究院基于CARLA模拟器在这一领域开展了一系列工作。

4.3重新检查RL的应用

目前有一种观点认为“RL只会玩游戏和象棋,其他都行”。作者认为,我们不应该对RL过于悲观。其实它在电子游戏和桌游上都可以超越人类,证明了RL强大的推理能力。经过合理改进,有望得到广泛应用。通常,从研究到应用的转变是不直观的。例如,沃森系统以其理解和响应自然语言的能力而闻名于世。2011年打败人类玩家,获得Jeopardy!冠军。背后的支撑技术之一是杰拉尔德·特索罗在开发TD-Gammon程序时使用的RL技术[53][52]。那种“只能用”的棋艺在最好的问答系统中起到了不可或缺的作用。今天的RL发展水平比当年高很多。怎么能没有自信呢?

RL在强大的IBM沃森背后也扮演着核心角色

通过调查,我们可以发现RL算法已经广泛应用于各个领域:

控制字段。这是RL思想的发源地之一,也是RL技术应用最成熟的领域。控制领域和机器学习领域都发展了类似的思想、概念和技术,可以借鉴。比如目前广泛使用的MPC算法就是一种特殊的RL。在机器人学领域,相对于只能用于感知的DL,RL相对于传统方法有其自身的优势:LQR等传统方法一般学习一种基于图搜索或概率搜索的轨迹级策略,复杂度较高,不适合重新规划;RL方法学习状态-动作空间中的策略,具有更好的适应性。

自动驾驶领域。开车是一个循序渐进的决策过程,自然适合用RL来处理。从80年代的ALVINN和TORCS到今天的CARLA,业界一直在尝试用RL解决单车自动驾驶和多车交通调度的问题。类似的思路也广泛应用于各种飞行器和水下无人机。

NLP域。与计算机视觉领域的任务相比,NLP领域的很多任务是多轮的,即需要通过多次迭代交互(如对话系统)来寻求最优解;而且任务的反馈信号往往需要经过一系列的决策(比如机器编写)才能获得。这个问题自然适合用RL来解决,所以RL近年来被应用到了NLP领域的很多任务中,如文本生成、文本摘要、序列标注、对话机器人(文本/语音)、机器翻译、关系抽取、知识地图推理等。还有很多成功的应用案例,比如Yoshua Bengio研究组在对话机器人领域开发的MILABOT模型[54],聊天机器人[55]等等;机器翻译领域的译者[56]等。此外,在一系列跨越自然语言处理和计算机视觉的任务中,如VQA、图像/视频字幕、图像基础、视频摘要等。,RL技术也显示了它的才华。

推荐系统和检索系统。RL中的土匪系列算法已经广泛应用于商品推荐、新闻推荐和网络广告中。近年来,一系列的工作已经将RL应用到信息检索和排序的任务中[57]。

金融部门。RL强大的序贯决策能力受到了金融系统的重视。华尔街巨头和创业公司如Kensho都将RL技术引入了他们的交易系统。

数据选择。在有足够数据的情况下,如何快速、良好、经济地选择数据进行学习,具有很大的应用价值。最近,在这一领域出现了一系列的工作,如UCSB的吴家玮提出的加强联合训练[58]。

沟通、生产调度、计划和资源访问控制。这些领域的任务往往都涉及到“选择”动作的过程,而且标记数据很难获得,所以广泛采用RL来解决。

关于RL应用的更全面总结,请参考参考文献[59,60]。

虽然上面列举了很多成功的应用,但是我们还是要意识到RL的发展还处于起步阶段,并不能覆盖全球。目前还没有像即插即用算法那样成熟的通用RL解决方案。不同的RL算法在各自领域处于领先地位。在找到一个通用的方法之前,要针对具体问题设计特殊的算法。比如在机器人领域,基于贝叶斯RL和进化算法的方法(比如CMAES[61])比DRL更适合。当然,不同的领域应该互相学习,互相促进。RL算法的输出存在随机性,这是其“探索”哲学带来的本质问题。所以不要盲目的在RL中All,也不要在All中RL,要找出RL适合解决的问题。

不同的问题应该使用不同的RL方法[22]

4.4重新审视RL的价值

在NIPS 2016上,颜乐村认为最有价值的问题是“预测学习”,类似于无监督学习。他的演讲代表了学术界最近的主流观点。根据本·雷希特的观点,逆向学习比监督学习和非监督学习更有价值,UL。他将这三种学习方法对应于商业分析中的描述分析(UL)、预测分析(SL)和指导分析(RL)[18]。

描述性分析是对已有数据进行总结,从而获得更稳健、更清晰的表征。这个问题最容易,但价值最低。因为描述性分析的价值更多的在于审美而不是实践。比如“用GAN渲染一个房间图片用什么风格”远不如“根据房间的图片预测房间的价格”重要。而后者是一个预测分析问题——根据历史数据预测当前数据。但在描述分析和预测分析中,系统不受算法的影响,而引导分析则进一步对算法与系统的交互进行建模,通过主动影响系统使价值增益最大化。

对比以上两个例子,指导性分析是解决“如何通过一系列的房间装修,最大限度的提高房价”这样的问题。这类问题是最难的,因为它涉及到算法与系统的复杂交互,但也是最有价值的,因为引导分析(Guiding Analysis,RL)的自然目标是价值最大化,也是人类解决问题的途径。而且问题的环境是静态的,不可改变的,无论是描述性分析还是预测性分析。这个假设对大多数实际问题都不成立。引导分析是用来处理环境的动态变化,甚至考虑与其他对手的合作或竞争,更类似于人类面临的大多数实际问题。

指导问题的分析是最困难和最有价值的[18]

在最后一节中,作者将尝试在更广的范围内讨论类似于语言学习的反馈学习方法,从而尝试为读者介绍一种新的语言学习视角。

5

广义学习——从反馈中学习

在本节中,术语“广义的RL”用于指关于“从反馈中学习”的跨学科研究。与上面介绍的来自机器学习、控制论、经济学等领域的RLs不同,本节涵盖的学科范围更广,所有涉及从反馈中学习的系统暂时称为广义RLs。

5.1广义的RL是人工智能研究的最终目标

1950年,图灵在他划时代的论文《计算机械与智能》[62]中提出了著名的“图灵测试”概念:如果一个人(代号C)使用的是测试对象能理解的语言,那么从两个他看不见的对象中问出任意一系列的问题。对象是:一个思维正常的人(代码B)和一个机器(代码A)。如果,经过几次查询,C无法做出实质性的区别来区分A和B的区别,那么这个机器A通过图灵测试。

请注意,“图灵测试”的概念已经包含了“反馈”的概念——人类通过程序的反馈来判断,而人工智能程序通过学习反馈来欺骗人类。在同一篇论文中,图灵还说:“除了尝试构建一个可以直接模拟成人大脑的程序,为什么不尝试构建一个可以模拟儿童大脑的程序呢?如果它接受了适当的教育,它就会得到一个成年人的大脑。”——从反馈中逐步提高能力,这不就是RL的学习方式吗?可以看出,人工智能的概念提出的时候,其最终目的是建立一个足够好的反馈学习系统。

1959年,人工智能的先驱亚瑟·塞缪尔(Arthur Samuel)正式定义了“机器学习”的概念。正是塞缪尔在20世纪50年代开发了基于RL的象棋程序,成为人工智能领域最早的成功案例[63]。为什么人工智能的先驱们往往专注于与RL相关的任务?经典名著《人工智能:一种现代方法》中对人工智能的评论可能会回答这个问题:人工智能可以被认为包括人工智能的所有元素:一个代理被放置在一个环境中,同时必须学会舒适(强化学习可以被认为编码所有的人工智能:一个代理被放置在一个环境中,必须学会在其中成功地行为。)[64]。

不仅在人工智能领域,在哲学领域也强调行为和反馈对智能形成的意义。生成理论(Enactivism)认为行为是认知的基础,行为和感知是相互促进的。代理人通过感知获得行为的反馈,而行为给环境带来真实而有意义的体验[65]。

行为和反馈是智力形成的基石[65]

似乎从反馈中学习的确是实现智能的核心要素。

回到人工智能领域。DL成功后与RL结合成为DRL。经过对知识库的成功研究,逐步将记忆机制加入到RL算法中。而变分推理也找到了与RL的结合点。最近,学术界开始反思DL,重新燃起对因果推理和符号学习的兴趣,随后出现了与关系RL和符号RL相关的工作[66]。通过对学术发展的回顾,我们也可以总结出人工智能发展的一个特点:每当在一个相关的方向上有了突破,总会回到RL问题上来,寻求与RL的结合。与其把DRL看成DL的延伸,不如把DRL看成RL的回归。所以我们不用担心DRL的泡沫,因为RL是人工智能的终极目标,具有强大的生命力,未来会迎来一波又一波的发展。

5.2广义的RL是未来所有机器学习系统的形式

Recht在他的上一篇博文[67]中强调,只要一个机器学习系统可以通过接受外部反馈来改进,那么它就不仅仅是一个机器学习系统,也是一个RL系统。A/B测试是RL最简单的形式之一,广泛应用于互联网领域。然而,在未来的机器学习系统中,需要处理分布的、动态变化的数据,并从反馈中学习。因此,可以说我们即将进入一个“全机器学习就是RL”的时代,学术界和工业界都迫切需要加紧对RL的研究。Recht从社会和道德方面详细讨论了这个问题[67],并将他从控制和优化的角度对RL的一系列思考总结成一篇总结文章供读者思考[69]。

5.3广义的RL是很多领域研究的共同目标

第4.2节已经提到,机器学习是在与机器学习相关的领域中发明和研究的。事实上,这种从反馈中学习的想法已经在许多其他领域得到了不断的研究。仅举几个例子:

在心理学领域,经典条件反射和操作条件反射的对比就像SL和RL的对比一样。著名心理学家阿尔伯特·班杜拉提出的“观察性学习”理论与IL非常相似。其实,精神分析大师梅兰妮·克莱茵提出的“投射同一性”,也可以看作是RL的一个过程。在心理学的很多领域,行为主义最接近RL。其代表约翰·布罗德斯·华生将行为心理学应用于广告业,极大地促进了广告业的发展。很难不认为RL算法的成熟应用之一就是互联网广告。行为主义在认知科学影响下发展起来的认知行为疗法类似于RL中的策略转移法。行为主义与RL的关系很深,甚至可以说是RL思想的另一个源头。由于篇幅有限,本文无法详细描述,请参考[53]等心理学文献。

在教育学领域,对“主动学习”和“被动学习”进行了比较研究。代表性的研究是Cone of Experience,其结论与机器学习领域RL和SL的比较非常相似。教育家杜威倡导的“研究性学习”是指为了寻求反馈而积极探索学习方法;

在组织行为领域,学者们探讨了“主动人格”和“被动人格”的区别及其对组织的影响;

在企业管理领域,企业的“探索行为”和“利用行为”一直是研究热点;

……

可以说,选择然后获得反馈,再从反馈中学习所涉及的领域几乎都是以各种形式存在的,所以作者称之为广义的RL。这些学科为RL的发展提供了丰富的研究资料,积累了大量的思想和方法。同时,RL的发展不仅会对人工智能领域产生影响,还会促进广义RL所包含的多个学科的共同进步。

6

结论

虽然RL领域还有很多问题需要解决,DRL方向也有很多气泡,但是应该看到RL领域本身在研究和应用领域都取得了很大的进步。这个领域值得继续研究,但应用上要合理。基于反馈的学习的研究不仅有望实现人工智能的最终目标,而且对机器学习等许多领域的发展也有意义。这的确是通往人工智能的最佳路径。道路布满荆棘,但黎明已经出现。

参考文献:

[1] Mnih,Volodymyr,等,“通过深度强化学习进行的人类层面的控制。”自然518.7540 (2015): 529。

[2]西尔弗,大卫,等,“用深度神经网络和树搜索掌握围棋的游戏。”自然529.7587 (2016): 484-489。

[3]西尔弗,大卫,等,“在没有人类知识的情况下掌握围棋的游戏。”自然550.7676 (2017): 354。

[4]列文,谢尔盖,等,“深度视觉运动策略的端到端训练。”arXiv预印本arXiv:1504.00702,2015。

[5]毛,洪子,等.“深度强化学习的资源管理”第15届美国计算机学会网络热点研讨会论文集。ACM,2016。

[6]deepmind.com/blog/deepm

[7] Jaques,Natasha,等,“用强化学习调整递归神经网络。”(2017)。

[8]亨德森,彼得等,“重要的深度强化学习。”arXiv

预印本arXiv:1709.06560 (2017)。

[9] Islam,Riashat,等,“连续控制的基准深度强化学习任务的再现性。”arXiv预印本arXiv:1708.04133 (2017)。

[10]riashatislam.files.wordpress.com

[11]sites.google.com/view/d

[12]reddit.com/r/MachineLea

[13]alexirpan.com/2018/02/1

[14]himanshusanni . github . io

[15]amid.fish/reproducing-d

[16]rodeo.ai/2018/05/06/rep

[17]达扬、彼得和雅艾尔·尼夫。"强化学习:好的、坏的和丑陋的."神经生物学的当前观点18.2 (2008): 185-196。

[18]argmin.net/2018/05/11/o

[19]马涅、何利亚、奥雷利亚·盖伊和本杰明·雷希特。"简单的随机搜索为强化学习提供了一种竞争性的方法."arXiv预印本arXiv:1803.07055 (2018)。

[20]贾斯特森,尼尔斯,等,“电子游戏的深度学习。”arXiv预印本arXiv:1708.07902 (2017)。

[21]youtube.com/watch?

[22]sites.google.com/view/i

[23]银,大卫,等。“预电子:端到端的学习和规划。”arXiv预印本arXiv:1612.08810 (2016)。

[24]戴森罗斯、马克和卡尔·拉斯姆森。“PILCO:一种基于模型和数据高效的策略搜索方法。”第28届国际机器学习会议论文集(ICML-11)。2011.

[25]列文、谢尔盖和弗拉德伦·科尔敦。"引导策略搜索。"机器学习国际会议。2013.

[26]韦伯,泰奥法人,等,“深度强化学习的想象力增强剂。”arXiv预印本arXiv:1707.06203 (2017)。

[27]理查德·萨顿,“Dyna,一个学习、规划和反应的集成架构。”ACM SIGART公报2.4 (1991): 160-163。

[28]西尔弗、大卫、理查德·萨顿和马丁·穆勒。"基于样本的学习和带有永久和暂时记忆的搜索."第25届国际机器学习会议录。ACM,2008年。

[29] Rajeswaran,Aravind等,“走向连续控制中的一般化和简单化。”神经信息处理系统的进展。2017.

[30]andreykurenkov.com/writ

[31] UCL远程学习课程:www0.cs.ucl.ac.uk/staff

人工智能、或与控制理论:随机优化的罗塞塔石碑普林斯顿大学(2012)。

[33] Pomerleau,Dean A .《Alvinn:神经网络中的自主陆地车辆》神经信息处理系统的进展。1989.

[34]阿比埃、彼得和安德鲁·吴。"通过反向强化学习的学徒学习."第21届国际机器学习会议录。ACM,2004年。

[35] Osa,Takayuki,等,“模仿学习的算法观点。”机器人基础与趋势7.1-2 (2018): 1-179。

[36]fermatslibrary.com/arxi网址= https % 3A % 2F % 2Farsiv . org % 2Fpdf % 2f 1406 . 2661 . pdf

[37]何、乔纳森和斯特凡诺·埃蒙。"生成性对抗模仿学习."神经信息处理系统的进展。2016.

[38]github.com/carla-simula

[39]36kr.com/p/5129474.html

[40] Vezhnevets,Alexander Sasha,等,“等级强化学习的封建网络。”arXiv预印本arXiv:1703.01161 (2017)。

[41]兰扎托,马克·奥雷利奥等,“用递归神经网络进行序列级训练。”arXiv预印本arXiv:1511.06732 (2015)。

[42] Bahdanau,Dzmitry,等,“一种用于序列预测的演员-评论家算法。”arXiv预印本arXiv:1607.07086 (2016)。

[43] Keneshloo,亚塞尔,等,“序列到序列模型的深度强化学习”arXiv预印本arXiv:1805.09461 (2018)。

[44]沃特斯,尼古拉斯,等,“视觉交互网络。”arXiv预印本arXiv:1706.01433 (2017)。

[45]哈姆里克,杰西卡·B,等,“人类和机器的物理结构的关系归纳偏差。”arXiv预印本arXiv:1806.01203 (2018)。

[46]赞巴迪,维尼修斯等,“关系深层强化学习。”arXiv预印本arXiv:1806.01830 (2018)。

[47]桑托罗,亚当,等。“关系递归神经网络。”arXiv预印本arXiv:1806.01822 (2018)。

[48]巴塔格利亚,彼得·w .,等,“关系归纳偏差,深度学习和图形网络。”arXiv预印本arXiv:1806.01261 (2018)。

[49] Eslami,SM Ali等,“神经场景表示与渲染。”理科360.6394 (2018): 1204-1210。

[50]黄,桑迪,等.“对神经网络策略的对抗性攻击”arXiv预印本arXiv:1702.02284 (2017)。

[51]贝扎丹、瓦希德和阿尔斯兰·穆尼尔。"深度强化学习对策略诱导攻击的脆弱性."模式识别中的机器学习和数据管理国际会议。斯普林格,湛,2017。

[52]杰拉尔德·特索罗。"时间差异学习和道明-金门."《美国医学会通讯》38.3 (1995): 58-68。

[53]琼斯,丽贝卡m,等,“社会强化学习的行为和神经属性。”《神经科学杂志》31.37 (2011): 13039-13045。

[54]github.com/YBIGTA/DeepN

[55]刘易斯、迈克等,“成交还是不成交?谈判对话的端到端学习。”arXiv预印本arXiv:1706.05125 (2017)。

[56]microsoft.com/zh-cn/tra

[57]德哈密,瓦利,等,“将强化学习应用于网页排序算法”应用软计算13.4 (2013): 1686-1692。

[58]吴,贾伟,,威廉·.“强化联合训练。”arXiv预印本arXiv:1804.06035 (2018)。

[59]李,俞希。"深度强化学习:概述."arXiv预印本arXiv:1701.07274 (2017)。

[60]费恩伯格、尤金·阿和亚当·施瓦茨合编。马尔可夫决策过程手册:方法和应用。第40卷斯普林格科学与商业媒体,2012年。

[61]en.wikipedia.org/wiki/C

[62]艾伦·图灵,“计算机器和智能”解析图灵测试。斯普林格,多德雷赫特,2009年。23-65。

[63]en.wikipedia.org/wiki/A

[64]罗素、斯图尔特·j和彼得·诺维格。现代方法。马来西亚;教育有限公司,2016年。

[65]诺瓦,阿尔瓦。感知中的行动。麻省理工学院出版社,2004。

[66]加奈洛、玛尔塔、凯·阿鲁库马兰和默里·沙纳汉。"走向深度符号强化学习."arXiv预印本arXiv:1609.05518 (2016)。

[67]argmin.net/2018/04/16/e

[68] Bojarski,Mariusz等,“自动驾驶汽车的端到端学习。”arXiv预印本arXiv:1604.07316 (2016)。

[69]本杰明·雷希特。"强化学习之旅:来自持续控制的观点."arXiv预印本arXiv: 1806.09460

[70]卡拉什尼科夫,德米特里,等,“QT-Opt:基于视觉的机器人操作的可扩展深度强化学习。”arXiv预印本arXiv:1806.10293 (2018)。

[71]谭,杰,等:“模拟到真实:四足机器人学习敏捷运动”arXiv预印本arXiv:1804.10332 (2018)。

[72]奥尔,彼得。"使用置信界限进行开发-勘探权衡."机器学习研究杂志3。11月(2002): 397-422。

[73]阿格沃尔、希普拉和纳文·戈亚尔。"汤普森抽样调查具有线性收益的背景盗匪."机器学习国际会议。2013.

[74]穆罕默德、沙基尔和达尼洛·希门尼斯·雷赞德。"内在动机强化学习的变分信息最大化."神经信息处理系统的进展。2015.

[75] Pathak,Deepak,等,“通过自我监督预测的好奇心驱动的探索。”机器学习国际会议(ICML)。2017年卷。2017.

[76]唐,浩然,等. #“探索:基于计数的深度强化学习探索研究”神经信息处理系统的进展。2017.

[77]麦克法拉尼,罗杰。"强化学习探索策略综述."麦吉尔大学。cs。麦克吉尔。ca/∞cs 526/罗杰。pdf,访问日期:2018年4月。

[78] Plappert,Matthias,等,“勘探的参数空间噪声。”arXiv预印本arXiv:1706.01905 (2017)。

[79] Fortunato,Meire等,“用于探索的嘈杂网络”arXiv预印本arXiv:1706.10295 (2017)。

[80]肯斯基,肯等,“图式网络:零触发转移与直觉物理学的生成因果模型。”arXiv预印本arXiv:1706.04317 (2017)。

[81]李,达,等.“学习泛化:面向领域泛化的元学习”arXiv预印本arXiv:1710.03463 (2017)。

82 berkeleyautomation . github . io

[83]contest.openai.com/2018

挑战一个名人、企业或产品,设置一个挑战,以此吸引消费者和媒体的注意力,让媒体关注并报道结果,把自己变成可读的新闻炒作。对于爱看热闹的人来说,反对的声音越强烈,就越热情。差异化的心理感应,让读者在不知不觉中对炒作有了一个完整的认识。结果不置可否,炒作意识已经达到。
由于媒体门槛很低,可以获得的流量非常大。越来越多的企业或个人通过自媒体推广自己的公司和产品。这个类似于炒作和营销,就不多说了。有兴趣可以试试一两个自媒体平台。网络炒作一直是运营商常用的方法之一。营销人员需要规划和实施活动,将活动暴露在公众眼前,没有任何门槛地参与其中,通过活动塑造公司的良好形象,有利于企业的长久发展。


最新动态


相关资讯

  • 涉嫌炒作房子!扣留业主房产证!长
  • 以斯帖玉把面粉倒在蒋斌的头上,想
  • 豪华车上的鱼干阿姨,疑似炒作出名
  • 美国轰炸机暴露在关岛起飞。绿色媒
  • 她的父亲是陈吗?隐藏了33年,不打不
  • 易会满再次发声注册系统,钟南山一
  • 印度媒体猜测,巴基斯坦爆发“内战
  • 娱乐圈一片混乱,《演员请定位2》就
  • 张小龙给湖南卫视和沈发了道歉信,
  • 该死。天津人一次次排队买月饼!投

    微信号:tuisho
    全年无休,早9点至晚9点

    复制号码

    跳转微信

    ×


    靓号
    此号仅服务老客户
    新客户请联系微信

    ×