apt模型,如何加快vericut模拟速度?
你好,以下是一些可能有用的方法来加快Vericut的模拟速度:
1. 使用适当的计算机硬件和配置。Vericut需要大量的计算资源来进行实时模拟,因此使用高端计算机和适当的配置可以显著提高模拟速度。
2. 优化模型和编程数据。一些常见的优化技巧包括简化模型几何形状,删除无用的操作和刀具路径,以及减少刀具轨迹的复杂度。
3. 减少刀具轨迹的数目。减少刀具轨迹的数目可以减少计算量,从而加快模拟速度。这可以通过减少刀具的步进和减小刀具半径来实现。
4. 降低Vericut的图形质量。将Vericut的图形质量降低可以减少计算量,从而提高模拟速度。这可以通过在Vericut设置中调整图形质量参数来实现。
5. 使用Vericut的批处理模式。批处理模式可以允许用户一次模拟多个程序,从而提高模拟效率。
6. 使用Vericut的多线程模式。多线程模式可以允许Vericut同时使用多个CPU核心进行模拟,从而提高模拟速度。
7. 调整Vericut的模拟参数。在Vericut设置中,可以调整不同的模拟参数,例如时间步长、加速度和刀具半径等,以优化模拟速度和精度。
为什么NET平台在技术上远强过Java?
简单地说,有几个原因。
1. Java出得早
2. Java够用
3. Java开源
4. Java由以上三点衍生出来的一系列优势
在科技行业,做得早会有天然优势。我们回顾中外互联网科技巨头,大多数都是本行业最早的一批创业者里面涌现出来的。而java比.Net早了差不多五年推出来的,这五年的时间,让Java建立了很大的优势。
其次就是Java也是一个很好用的语言,.Net能实现的功能,Java基本也都能实现,无非只是说实现的方式不太一样。也就是说,Java是可以满足使用的。尽管.Net语言的确有一些优势,技术上也比较先进,但是Java够用了,也就没必要非要换成.Net了。
而Java有一个不容忽视的优势就是,Java从一开始就是开源的。Java的好框架好思想几乎全是开源的,包括Spring这种。因此生态建设很成功。而受限于Windows平台的.Net在这方面吃亏不少。
除此之外,由于Java起步早,开源,所以累积的使用人数也多,采用这个平台的企业也多。最终导致的结果就是人才储备非常雄厚。与此同时, Java也足够使用了,为了追求语言的技术先进性更换语言,收益不大,也无必要。而选择开源,人才储备足,使用人数多的Java往往也意味着更低的支出,而且不用担心受制于微软公司。由于.Net人才少,招人需要高薪,还不容易找到优秀人才。而微软的平台使用费用也是一笔不容小视的支出。对于企业来说,除非.Net有不可替代性,那就没有必要选择.Net而放着好用又便宜的Java不用。更何况,Java的生态建设也比.net要好得多。
想要取代老技术,老平台,不能只是做到跟原来的平台一样好用就可以的。要有决定性的优势,能做到以前的平台和技术做不到的事情才行。或者是,功能一样,价格具有很大的优势。
当AI遇到网络安全怎么办?
当人工智能遇上网络安全,在纷繁复杂的技术与应用方案背后,可以归纳成执行层、感知层、任务层和战略层四大层面的智能化,不仅帮助解决现有的一些安全难题,未来的发展也非常有想象空间。
网络安全新战场需要AI填补人才紧缺
目前网络安全已经进入了一个崭新的时代,面向各种新战场,需要新的架构、新的方法、新的编程语言来支撑我们应对越来越艰巨的战斗。新战场以黑产对抗、反勒索软件、反Insider-basedAPT、物联网/车联网这些新方向为代表。比如很多摄像头、智能门锁、儿童手表,都是成批次的被攻破,车联网与智能车的安全问题也引起业界的严重关注和顾虑。
众所周知,在移动互联网时代,安卓的碎片化生态几乎已经失控了。不少手机厂商对某些低版本的手机系统都不再进行升级,尽管还有很多用户在用,这就带来了严重的安全隐患,恶意代码可以轻易通过攻击几年前的安卓漏洞来获利。进入物联网时代,这种情况会更加严重。很多硬件厂商在开发产品的时候完全没有考虑引入专业安全服务,最终面临严峻的安全漏洞时却难以应对。
一方面是新的攻击不断涌现,另一方面防守方却显得捉襟见肘了。安全的核心是对抗,而对抗是多维度的、持续的。为了进行有威慑力的对抗,最大的挑战还是缺少高素质安全专业人才。在这种情况下,我们只能靠AI,也就是靠人工智能来填补人才空缺。
对于人工智能的看法业界出现两极分化:一种观点认为AI可以帮人类完成一切工作,另一种认为AI会毁灭人类。事实上没有绝对的黑白,AI的作用也远远没有这么极端。AI能做什么?吴恩达教授给出了很好的解释:一方面,正常人类1秒内能做出的判断,AI也能做的很好。比如无人驾驶时代已经悄然来临,人脸识别、语音识别,现在机器也能够做到很高的准确率。另一方面,通过大量已经发生过的具体重复事件,AI能很好的预测即将发生的事情。
当AI遇到网络安全
当AI遇到网络安全时,又会发生什么样的化学反应呢?
网络安全是一个非常复杂的体系,可以分为执行层、感知层、任务层和战略层。现在AI已经可以在执行层和感知层有不错的应用,同时在任务层和战略层已经开始摸索,但还处于比较初期的阶段。
(一)执行层:显著提高安全运维效率
在执行层,AI可以显著提升安全工具的规则运维效率。规则体系的触角在整个安全网络体系里面的延伸非常广泛,包括像杀毒、WAF、反SPAM、反欺诈等。这些领域在传统模式中需要大量的人力来维护,比如像反欺诈系统里面可能有上千条规则,这些规则之间存在着很多的冲突,某些规则组合甚至超出了人的理解能力,人在维护这些规则的时候也常常会出现问题。
而依靠AI,就可以很好的解决这些情况,机器学习已经展示出非常强大的价值。它可以自动生成规则,不用依靠庞大的人力资源来维护。而且安全事件通常是大量发生的,所以AI能够比较好的识别判断下一次事件。
AI是如何做到的呢?机器学习能自动生成规则,但是其中的学习深度还是有一定的区分。“浅学习”以SVM、Random Forrest、GBDT等算法为代表,它还需要很多的人工特征工程来准备特征向量,然后由算法自动完成分类识别。在风控领域,运用最广泛的是GBDT(很多比赛的冠军都是用GBDT),但是当特征维度上升到数千维后,深度学习的优势就开始慢慢展现出来。深度学习和“浅学习”存在一个很大的区别,就是深度学习对特征工程的依赖减弱很多,它能比较好的自动提取特征,可以生成深度学习模型,比如CNN(卷积神经网络)和RNN(循环神经网络)技术等。
举例而言,AI在移动杀毒引擎的应用效果明显。众所周知,现在病毒种类的变形越来越多,大多数黑产都会进行不同的尝试。如果用人工来构建那些恶意代码的识别特征,就需要构建一套非常庞大的体系,不仅慢而且难以维护。百度利用深度学习技术在这方面取得了非常出色的成果,在历次AV Test测试中长期保持第一。去年百度安全在顶级安全工业界会议 BlackhatEurope 上就此成果做了专题报告,也是目前全球安全工业界第一个有实质性进展的深度学习应用技术报告。
另一个例子是AI在网页安全中的应用,效果也非常显著。目前网页安全的威胁主要包括三类:第一种欺诈类网站,包括虚假高校、虚假药品、假冒贷款、仿冒火车票、虚假金融证券、仿冒飞机票、虚假中奖、仿冒登录、虚假招聘等;第二类是存在风险的网站,主要包括网页挂马、恶意代码、隐私窃取、恶意跳转、僵尸网络通信、木马下载主机等;第三类是违法网站,包括色情和博彩等。
百度每天爬取索引的数据中,有1%~5%的URL包含不同程度的恶意信息,如果不加防护将会对网民带来巨大的伤害。百度安全通过规则体系、机器学习(浅层模型)、深度学习(文本)、深度学习(图片)以及威胁情报挖掘等网址安全复合检测算法来保障网站的安全。目前,百度安全利用机器学习进行网页检测,对恶意信息的防护已经取得了很好的成果。单条样本检测时延已经小于10ms,对非法网站的识别准确率已经超过99%。百度安全团队也受国际安全学术泰斗 UC Berkley Prof. Dawn Song 邀请,在 Singapore Cybersecurity Consortium (SGCSC) 上就此成果做了专题报告。
(二)感知层:生物特征识别与对抗的兴起
在感知层,当下最重要的应用就是生物特征认证。人脸认证是目前AI在安全领域最成功的一个应用。整个认证流程看起来简单,其实里面的技术相当复杂:首先需要在各种环境下准确追踪人脸,如果有偏差能够给予及时有效的提示;其次要在最小用户打扰的情况下完成可靠的活体识别,而不被虚假照片或化妆欺骗,能高速完成可信人脸数据对比。第三,设备和应用的安全状态也需要可靠的保障,一旦发现恶意攻击可以即时进行取证。最后,还必须要在云端对用户隐私信息有着严格的保护。因此,要实现顺滑的人脸认证体验,必须要有AI技术和系统化安全技术做全面支撑。
为什么要在安全过程中用AI感知来做人脸识别?因为银行或者运营商对于客户的实名认证环节,传统上是要靠人来完成的。但是人其实是在整个安全过程中最容易被攻破的一环,攻击者可以找到很多理由,比如最近胖了/瘦了/病了等来蒙混过关。如果是AI来做这件事,反而铁面无私,能够把这个体系构建的更加标准化,并随着技术的进步不断完善。
目前,百度的人脸认证已经能够在秒级内完成超过90%的高可信验证比率,显著高于业界平均水平,并且已经在实战中积累了很多活体识别对抗的经验和能力。除此之外,我们也在声纹识别、用户行为识别等领域做了很多应用探索和尝试。
(三)任务层和战略层:尚处在初级探索阶段
将AI应用于网络安全任务层和战略层,在某些国际大赛上已经开始尝试,但目前还只是封闭空间的自动对抗。其中最著名的就是 DARPA 主办的 CGC 大赛,比赛让7个顶级团队构建自动化系统,对有缺陷的服务程序做自动加固,然后相互攻击,不仅要抵抗外来攻击,同时还要反击对手。但是,这个还不能说是人工智能,因为所有的逻辑都是人预先设定好的。也就是说,目前仍然停留在自动化阶段,还在向AI方向摸索。
在安全的任务层和战略层要真正达到人工智能的高级阶段,首先要解决人工智能对开放空间的认知问题,包括世界认知、人性弱点、创造力、跨维打击等方面,其实还有很长一段距离。不过最近在相对封闭的任务空间中的人工智能探索研究,已经取得了很好的进展,相信在不远的将来会有一些颠覆性的应用产生。
总结
人工智能在网络安全领域的应用,执行层上面已经实用化,可以显著的提升规则化安全工作的效率,弥补专业人员人手的不足;在感知层面,可以把原本依赖于人(不可靠)的安全体系标准化,现在已经开始实现大规模的推广,包括人脸识别和图象识别等等;AI在任务层上的摸索刚刚开始,在某些封闭任务领域已经展现出很好的潜力;在战略层,由于开放空间的特性,AI的路还比较遥远,所以大家还不用担心“天啊,人类要毁灭了”这样的问题。同时,随着人工智能在安全领域的应用,围绕着人工智能技术本身的攻防对抗也成为学术界的研究热点,相信其中的研究成果很快也会在安全实践中得到应用。
有没有最新的深度学习和深度强化学习的教学资源?
MILA 2018 深度学习与强化学习夏季课程目前已经开放了教学资源,机器之心简要介绍了该课程所开放的资源与课程主题,读者可参考这些主题选择合适的课程。
课程地址:https://dlrlsummerschool.ca/
视频地址:http://videolectures.net/DLRLsummerschool2018_toronto/
MILA 2018 夏季课程包括深度学习夏季课程(DLSS)和强化学习夏季课程(RLSS),并主要由以下机构支持。Yoshua Bengio 等人组织的夏季课程每年都非常受关注,每一个主题及讲师都是该领域的资深研究者,今年包括 Yoshua Bengio 和 Richard Sutton 在内的讲师大多来自常青藤院校、谷歌大脑、VECTOR INSTITUTE 和 MILA 实验室等知名的研究机构。
深度学习夏季课程
深度神经网络学习在多层抽象网络中呈现数据,这极大地提升了语音识别、目标识别、目标检测、预测药物分子活动和其他多项任务的水平。深度学习通过监督学习、无监督学习和强化学习构建分布式表征,在大型数据集中构建复杂的结构。DLSS 将涵盖深度神经网络的基础和应用,从基本概念到尖端研究结成果。
深度学习夏季课程(DLSS)面向已具备机器学习(也可以是深度学习,但不是必须)领域基础知识并有志于进一步深入学习 的硕士研究生、工程师和研究者。今年的 DLSS 课程由 Graham Taylor、Aaron Courville 、Roger Grosse 和 Yoshua Bengio 共同组织。
强化学习夏季课程
RLSS 会覆盖强化学习的基础知识,并且展示其最前沿的研究方向和新发现,还会提供与研究生和业内高级研究人员进行交流的机会。值得注意的是,今年 Richard Sutton 会先给我们上一次强化学习「启蒙课」:《Introduction to RL and TD》。
本课程主要面向机器学习及其相关领域的研究生。参加者应该有过计算机科学和数学方面的进阶预训练的经验,今年强化学习夏季课程的组委会成员有 Amir-massoud Farahmand、Joelle Pineau 和 Doina Precup。
DLSS深度学习夏季课程一共包含 12 个主题,它从机器学习基本概念与理论开始介绍了深度学习常见的方法与理论。包括可学习理论、最优化理论以及循环和卷积神经网络等。如下所示为各位讲师及他们带来的课程主题,我们将简要介绍每一个课程讲了些什么。
深度学习夏季课程
机器学习导论
机器学习一般分为三大类别:监督学习、强化学习和无监督学习。来自杜克大学的 Katherine Heller 讲师会对这三种学习方式给出基本定义和区分,并辅以具体实例和算法示例的展示;以监督学习的角度,逐步引入线性拟合、误差估计、损失函数、过拟合、欠拟合、正则化等基本概念;从贝叶斯定理的角度重新理解过拟合问题;将线性拟合方法推广,以处理更加复杂的线性拟合问题,最经典的算法为 Logistic 回归。
神经网络 I
在这节课中,来自谷歌大脑的 Hugo Larochelle 从神经网络的一般结构开始,过渡到深度学习。神经网路的介绍部分除了基本的前向传播、初始化、激活函数、反向传播过程的解释;和上一节课程的基本概念相对应,涉及损失函数和正则化方法的实现,以及如何防止过拟合的方法,模型选择的方法;此外还有一些神经网络训练中常用的优化技巧,例如归一化、学习率调整等。
深度学习部分强调了训练困难的问题,主要分为两个类别,分别是欠拟合与过拟合。讲师针对这两类问题分别对可能的原因和解决方法进行了深入的讨论,其中欠拟合问题一般和优化方法、计算硬件等有关,过拟合问题一般需要用正则化方法来解决,并介绍了一种有趣的正则化方法——无监督预训练;之后在介绍批归一化方法时,讲师强调,这种正则化方法可以同时改善上述两个训练难题。
神经网络 II
在这节课中,Hugo Larochelle 会解释和对比多种机器学习方式,包括监督学习、无监督学习、半监督学习、迁移学习、多任务学习、域适应、one-shot 学习、zero-shot 学习等;然后讲师会介绍如何根据具体问题设计神经网络的架构。最后,讲师会介绍神经网络研究中出现的奇异或难以理解的现象,包括对抗样本、损失函数非凸性、数据记忆能力、数据压缩能力、初始化方法的影响甚至第一个训练样本的显著影响,以及灾难性遗忘现象等。
CNN 导论
在这节课中,来自谷歌研究院的 Jonathon Shlens 首先探讨了计算机视觉面临的主要挑战,简言之就是:我们不清楚人类视觉系统是怎么工作的,而现在我们也不清楚计算机视觉系统是怎么工作的,但这个领域的确在进步。卷积神经网络就是受到了生物视觉系统的工作方式的启发而提出来的。讲师强调了自然图像的统计需要遵循不变性,即对图像变换包括平移、剪裁、旋转、缩放等的不变性。这也正是卷积神经网络能成功的一大原因之一,它天然地引入了平移不变性,从而相对于全连接网络能显著减少参数数量;并且其架构和输入图像尺寸是无关的,因而更容易扩展。
在解释了基本概念的基础上,讲师进一步介绍了几个经典的卷积神经网络架构,比如 LeNet。计算机视觉的进步也离不开大规模数据集和算力的发展,尤其是 ImageNet 数据集的提出。讲师还强调了归一化方法的规范和稳定作用,并概述了多种归一化方法,包括批归一化、层归一化、实力归一化、组归一化等。然后讲师从增加深度的角度探讨了卷积架构的演变,并从图像特征不变性的角度探讨了迁移学习方法的发展,尤其是目标检测和分割任务上的架构演变。
接着讲师探讨了架构搜索方法的发展和卷积网络的特征可解释性问题,并在最后讨论了卷积神经网络研究领域面临的主要挑战。
理论基础
普林斯顿大学的 Sanjeev Arora 着重介绍了深度神经网络的理论基础,很多读者可能首先想到的就是万能近似定理,即足够宽的单层感知机可以拟合任意函数。但 Arora 更关注于最优化性能、泛化性能、深度法则和其它有可能代替神经网络的简单方法。
最优化
多伦多大学的 Jimmy Ba 介绍了最优化基础的第一部分,他主要介绍了随机搜索与梯度下降、如何搜索更好的下降方向以及如何设计一个「白盒」的最优化方法。这些主题都是从神经网络的角度来探讨的,甚至还介绍了如何采用随机搜索的方式学习神经网络的参数。
在整个课程中,他介绍的梯度下降是比较重要的话题,包括梯度下降为什么能朝着更好的方向学习参数、它又如何遭受极值点和鞍点的困扰等。当然既然有这些问题,Jimmy Ba 也会介绍比较好的解决方法,即将物理学中动量的概念引入梯度下降,这样就能克服这些问题。
美国西北大学 Jorge Nocedal 随后介绍了最优化的第二部分,他主要从理论的角度解释了如何理解随机梯度下降及拟牛顿法等其它最优化方法,并提出了很多能获得更快下降速度的技巧。
RNN
主讲人 Yoshua Bengio 首先介绍了循环神经网络及其变体,如生成 RNN(Generative RNN)、双向 RNN、递归网络、多维 RNN 等,并详细介绍了 RNN 中涉及的基本概念和原理,如条件分布、最大似然、通过增加深度来提升 RNN 的表达能力等。然后,Bengio 介绍了 RNN 中的梯度问题,包括梯度消失、梯度爆炸及其解决方案。还介绍了多种 RNN trick,如梯度裁剪、跳过连接、Momentum、初始化、稀疏梯度等。此外,这节课还介绍了注意力方面的知识,如基于注意力的神经机器翻译、图注意力网络、多头注意力、自注意力和 Transformer 等。
语言理解
来自 CMU 的 Graham Neubig 主讲这门课《自然语言理解》,共分为三部分:语言建模、序列传导(sequence transduction)和语言分析。从现象到原理到解决方案,由浅入深,图文并茂。语言建模部分介绍了 NLP 中的一些基本知识:词袋模型(BOW)、连续词袋模型(CBOW)、Deep CBOW、Bag of n-grams、池化、NLP 预测任务中的神经网络基本思路等。此外,这部分还介绍了用于 NLP 任务时 CNN、RNN 的优缺点。序列传导部分介绍了条件语言模型(Conditioned Language Model)、生成问题、句子表征和注意力机制。第三部分语言分析介绍了三个分析任务:标注、句法分析和语义分析。
多模型学习
Google AI 研究科学家 Jamie Kiros 主讲这门课,主要介绍 Grounded Language Learning,共分为三个部分:Grounding and Scope、构造块(包括当前最佳实践),以及与其他研究之间的关系。第一部分介绍了 natural language grounding 的发展历史以及两种主要方法:Tie training and evaluation scopes、Grow training scope, evaluate in world scope。第二部分介绍了五个通用组件:编码、解码、交互(interaction)、预测/控制、目标函数;三种交互方式:Scoring、Fusion 和 Modulation。第三部分介绍了与 Grounded Language Learning 相关的研究领域:Contextualization 、Multi-apt representations、Relevance Realization、Specificity、自然语言生成和对话。
计算神经科学
主题为「大脑中的深度学习」。这门课从「为什么深度学习不止用于 AI?」这个问题入手,指出深度学习研究的目标之一是理解大脑的运行原理。然后指出深度学习需要什么:根据隐藏层对网络输出的贡献向神经突触分配信用(credit)。接着介绍解决方案——反向传播,以及原版反向传播的生物问题。最后介绍了四个问题:error term、下游权重(downstream weight)、derivatves of spikes 和前向/反向传输。
RLSS强化学习夏季课程另外一系列优秀的资源,它从强化学习的「启蒙」到深度强化学习与模仿学习介绍了 RL 的主要脉络与基础。不过强化学习夏季课程可能需要一些数学基础,这样才能比较好地理解随机采样等具体方法。
此外,读者也可以查看阿尔伯塔大学计算机系博士 Yuxi Li 的深度强化学习手稿,这份 150 页的手稿从值函数、策略、奖赏和模型等六个核心元素详细介绍了深度强化学习的方向与细节。
下图展示了强化学习夏季课程的主题与演讲者,我们只简要介绍 Richard Sutton 给我们的强化学习「启蒙」。
在 Sutton 的课程中,他首先介绍了在 9 月份正式发布的《Reiforcement Learning: An Intrifuction》第二版,这本书的电子版同样可以从 Sutton 的主页获得。随后 Sutton 从生物学基础开始介绍了什么是强化学习,即给定环境和状态的情况下智能体会采取某个行动,而这个行动又会影响到环境,因此影响后的环境将反馈给智能体一些奖励或惩罚,这样智能体在不同的环境下就知道该采取什么样的行动。
当然 Sutton 还介绍了强化学习的很多基本概念,包括什么是智能体、环境和策略等,此外也讨论了很多基本的强化学习方法,包括马尔可夫决策过程和 Q 学习等。
该课程最近还放出了课程视频,不过这些视频并没有带英文字幕,因此考验你们听力的时候到了。
视频地址:http://videolectures.net/DLRLsummerschool2018_toronto/
深度学习夏季课程
强化学习夏季课程
每一个视频在边栏都提供了对应的课程资料,且视频只包含讲师的介绍而不包含对应的 PPT,所以如果读者要学习的话,不仅听力要好,同时还得根据内容手动翻 PPT。
JEET蓝牙耳机怎么样?
NineKa南卡N1S蓝牙耳机是最近最火的蓝牙运动耳机,虽然价格便宜,在质量方面严格把控,把每个看不到的细节都要做好,用品质和体验赢得用户的信任!从选材用料开始,走访几百家供应商,选择的都是进口级的材料,而且还有多达80余项高强度品质检测过程,比一般普通耳机多一倍的检测工序,品质做工都没话说。
为了保证音质和舒适度,NineKa南卡N1S耳机从选材、切割、定型、研磨等一路经过30多道工序,还邀请了20多名欧美调音师,历时2年100万次反复调试,将最舒适度最好的音质呈现出来。
这款NineKa南卡N1S蓝牙耳机在设计之初,除了考虑的是音质、舒服度外,外观也是不落下的,由于小巧的体积和轻盈的重量,不会像带普通蓝牙耳机那样有一种累赘感,基本上不会有难受的感觉。很多人买来一半是运动,一半是生活听歌用,NineKa南卡N1S耳机可以满足各种使用环境,而且在时尚界上很受欢迎。
二、华为FreeBuds悦享版蓝牙耳机
华为FreeBuds悦享版采用如今主流的分体式耳机+充电盒设计,单只耳机重量轻至5g,佩戴起来可以让用户感受到真正不受线材束缚的便利。耳机整体采用了流线型设计,具备IP54防尘防水等级,前端是专为运动场景打造的透气耳塞,佩戴兼顾稳固和舒适,耳机内部集成了红外感应器,能够实时监测耳机的佩戴状态。
三、OPPO O-Free蓝牙耳机
为了实现更好的产品续航,O-Free真无线蓝牙耳机采用了全新的低功耗设计,让耳机单体可以提供4小时的不间断使用,搭配充电盒提供的长达10小时使用电量,总续航时间长达14小时。搭载高通芯片,可与支持apt-X音频的手机搭配使用,支持高音质蓝牙编码传输。
四、酷狗X5蓝牙耳机
酷狗音乐的蝰蛇音效,目前已经为酷狗X5真无线耳机专属的定制音效,并且有许多金牌调音师,给出了自己的调音方案,笔者最爱使用HiFi现场这个方案,曲目清晰律动,很适合我这类爱流行音乐的年轻人。
五、魅族POP2蓝牙耳机
魅族POP2采用蓝牙5.0芯片,加上专利的天线技术,有效减少卡顿。实际使用过程中,在公交、地铁等信号较复杂的环境中没有出现与手机断连现象,看视频玩游戏的延迟也相对较低。
还没有评论,来说两句吧...