首页 >旅游

全球访问量的网站数据Google

2019-05-14 20:23:43 | 来源: 旅游

1 : 数据:Google超微软玉成球访问量站

国外媒体报道,谷歌近日在两个重要领域超出微软,成了全球访问量的站和全球价值品牌。

北京时间4月25日消息,据国外媒体报导,谷歌近日在两个重要领域超出微软,成了全球访问量的站和全球价值品牌。

根据市场研究公司comScore Networks公布的数据,谷歌今年3月超出微软成了全球访问量的站。数据显示,谷歌今年3月共吸引了5.28亿名独立访问者,比今年2月增长5%;微软共吸引了5.27亿名独立访问者,比今年2月增长3.7%。除美国之外,谷歌在欧洲国家的表现乃至更加抢眼。

谷歌在声明中称:“我们的目标是为用户提供络体验。用户的需求是我们开发产品的动身点,这也是我们能在互联市场脱颖而出的主要缘由。”到目前为止,微软还没有就此发表评论。2006年1月,comScore开始跟踪各大站的访问量。自那以后,微软1直占据着全球访问量站的宝座。comScore实行副总裁鲍勃·埃文斯(Bob Ivins)表示:“推敲到站访问量的增长趋势,微软早在调查开始前很久就占据了这1位置。”

谷歌之所以能在站访问量方面超出微软,所依托的并不是络搜索引擎,还有电子邮件、络地图和个性化主页等多种服务。2006年底,谷歌以价值16.5亿美元的股票收购了视频同享站YouTube,这1交易无疑提高了其站访问量。与之相比,微软近几年在互联市场增长乏力,用户增长速度相对缓慢。

埃文斯表示,依照现在的趋势发展下去,谷歌未来将在站访问量方面继续拉大与微软的差距。固然,独立访问者人数其实不是衡量站是不是成功的唯1标准。例如,用户在谷歌站的平均停留时间为4.6分钟,远远落后于微软的12.8分钟。comScore公布的数据主要基于对全球200万名用户络活动的分析。除谷歌和微软之外,访问量在全球名列前茅的站还包括雅虎(4.76亿人)、时期华纳(2.72亿人)和eBay(2.56亿人)。

与此同时,根据市场研究公司Millward Brown公布的2007年度全球价值百强品牌排行榜,谷歌已取代微软,成了全球价值的品牌。Millward Brown是全球第2大广告传媒团体WPP旗下的1个部门。这1排行榜依照品牌价值排名,谷歌目前的品牌价值已到达664.34亿美元,于其它品牌;通用电气位居第2位,品牌价值为618.8亿美元;微软退居第3位,品牌价值为549.51亿美元。

在两大关键领域超出微软,对谷歌而言无疑是1个重要的里程碑。美国圣克拉拉大学科学、技术和社会中心履行总监杰弗里·博克尔(Geoffrey Bowker):“这都是非常重要的事件,就目前看来,谷歌具有点石成金的魔力

2 : 全球站数量高达5000万,中国占1%

中国站数量2003年到达60万个,许多人1听这个数据都吓1跳。但是比较全球,就蔫了。

中国互联系信息资源的第3次数量调查显示,中国信息资源的发展势头10分强劲,截至2003年底,中国域名数量首次突破百万大关,全国站接近610万个,民已达7千9百510余万。

而更加调查,到2004年5月,全球站数量已超过5000万个。中国站只占其中的1%略多而已。实在是沧海1粟。与13亿人口的范围完全不相当。

中国民已占到全球民数量的13%以上,与站数量极不相称。加上近几年站为了刺激短信,主流站内容愈来愈向下走,中国民的“信息消费”处于全球“贫困地区”之1。

在几个亮丽的宏观数据下,中国互联面临的深层次问题将逐渐浮出水面。 3 : 全国打拐平台上线 站访问量3天突破280万

全国打拐平台上线 站访问量3天突破280万 【TechWeb报道】9月21日消息,全国打拐平台全国打拐解救儿童寻亲公告平台于9月19日正式上线,本日是站上线第3天,截至发稿,站访问量已突破280万次。

据悉,全国打拐解救儿童寻亲公告平台由民政部开发,址为:(全国打拐寻亲汉语拼音的首字母),用来将现有打拐解救儿童信息全部录入该平台,帮助亲生父母更快的找到拐卖儿童。

该平台提供检索功能,搜索关键词包括:姓名、性别、区域、身份证特点、解救时年龄、穿着等信息。另外,寻亲公告中,有孩子的肖像照、姓名、被拐卖地、所在福利机构、具体联系邮箱等信息。(周小白)

4 : 全国打拐平台上线 站访问量不断剧增

聚知识()9月21日消息 拐卖儿童事件愈来愈遭到国家的重视,9月19日全国打拐平台全国打拐解救儿童寻亲公告平台正式上线。今天是上线第3天,截止发稿站访问量已突破250多万次。

据了解,全国打拐解救儿童寻亲公告平台由民政部开发,址为:(全国打拐寻亲汉语拼音的首字母),用来将现有打拐解救儿童信息全部录入该平台,帮助亲生父母更快的找到拐卖儿童。该平台提供检索功能,搜索关键词包括:姓名、性别、区域、身份证特点、解救时年龄、穿着等信息。

除提供检索功能,寻亲公告中,有孩子的肖像照、姓名、被拐卖地、所在福利机构、具体联系邮箱等信息。目前,已有包括广东、河南、山东、广西、湖北等省分将284名现有打拐解救儿童信息录入该平台。

5 : “全球繁忙的站”12306如何实现高流量高并发的关键技术

12306站曾被认为是全球繁忙的站,在应对高并发访问处理方面,曾备受民诟病。因此在第1时间联系到1位对12306改造非常关注的技术架构师,他从技术的角度,用科学论证的方式,指出缘由所在,并根据他的经验进1步说明12306是如何实现高流量高并发的关键技术,与大家同享。以下为正文:

前言:

12306互联售票系统在2011年下半年开始上线使用,但在2012年春运期间引发无数的争议。在2012年春运后,12306项目承接单位与多家IT公司联系,经过量次论证和POC 测试, 终究引入散布式内存运算数据管理云平台 - Pivotal Gemfire做试点,用以提高12306系统性能,解决高流量和高并发的困难。

高流量高并发是指某特定时间段的海量要求,根据过去的经验法则,高并发是指访问流量是平常流量的 3⑸倍;但由于互联和移动装备apps的普遍化,电商站的促销模式11.11,或是厂商的饥饿营销,都会衍生秒杀现象。所以过去的经验法则用到12306春运售票系统,常常是远远低于实际的的流量。例如,12306平常1天的PV(page views)值大约是在 2500万到 3000万左右, 在2015年春运高峰日的PV值是297亿,流量增加1000倍,这样海量的要求,假定不能在短时间内动态调剂络带宽或增加服务器数量,就会造成络阻塞或是服务器性能没法满足要求,乃至使全部系统不稳定。

12306成长之路

短短的3年,从2012年春运到2015年春运,12306站从10亿的PV(page views)值增加到297亿PV值,PV值成长 30倍;络带宽从 1.5G调剂到12G,带宽成长8倍;而12306的售票量从110万增加到564万 ,成长5倍。出票处理能力从 每秒200张提升到 每秒1032张,也是5倍的成长。

PV值的增加是与放票的次数和可出售的票量有关系,例如,2015年PV值是2014年的2.3倍, 缘由是放票次数多了5次秒杀,另外增加12% 的售票量。因此可知,互联流量PV值的增加速度远远高于售票量增加的速度。

高流量除代表络容易造成阻塞之外,系统服务器也会面临更高的CPU负载,在此情况下又该如何应对呢?是选择基于原来系统框架上购买更昂贵的硬件做scale up升级呢 ?还是选择购买低本钱的x86服务器,进行可扩大云平台架构 scale out的改造设计呢?12306互联购票系统的改造给我们1个很好的案例参考,也让政府单位和企业进1步了解了具体是如何实现的。

12306改造的关键技术 建立可伸缩扩大的云利用平台

2015年12306站顺利过关,没有瘫痪,是值得庆祝的。根据互联上的,中国铁道科学研究院电子计算技术研究所副所长,12306站技术负责人朱建生说,为了应对2015年春运售票高峰,该站采取5项措施:1是利用外部云计算资源分担系统查询业务,可根据高峰期业务量的增长按需及时扩充。2是通过双中心运行的架构,系统内部处理容量扩充1倍,可靠性得到有效保证。3是对系统的互联接入带宽进行扩容,并可根据流量情况快速调解,保证高峰时段旅客顺畅访问站。4是防范恶意抢票,通过技术手段屏蔽抢票软件产生的恶意流量,保证站健康运行,保护互联售票秩序。5是制定了多套应急预案,以应对突发情况。

利用云计算资源,按需及时扩充和快速调剂,这几个字眼是12306改造的精神,其核心就是要建立1个从下到上全面可伸缩扩大的云平台。底层的硬件架构要支持可伸缩扩大,上层的利用系统架构也需要支持可伸缩扩大。

1. 在过去数年,云计算的基础架构虚拟化已非常成熟,也日益普遍部署;当络阻塞时,可以动态增加带宽,当服务器 CPU到达高位时,可以快速从资源池获得虚拟机资源来分摊负荷。 软件定义的数据中心 可以轻易完成这些伸缩性扩大的配置。

2. 当客户将底层的架构都虚拟化后,络装备,Web服务器,利用服务器都可以做伸缩性的扩大;但遇到1个难点就是12306的利用系统框架没法支持可伸缩扩大。缘由是关系型数据库Sybase没法支持利用系统的伸缩扩大。

3. 客户在过去数年已投入大笔经费在IT方面的建设,但系统框架设计还是沿用10几年前的3层设计,而且每一年都在原来的基础上做不断的升级。当业务不断成长时,数据量也随着成长,功能愈来愈多, 但系统性能愈来愈差。客户该如何选择呢 ?是 scale up? 还是 scale out ?

为何选择Pivotal Gemfire构建12306的云利用平台?

要解决12306春运时高流量高并发的问题,如果单靠硬件升级解决的话,可能需要扩充数10倍的硬件服务器。但在春运以后,又该如何解决服务器多余的问题呢?

要真正解决高流量,高并发的困难是需要从软件和利用系统层面动身,惟有实现可扩大的利用云平台架构,灵活和快速热部署的机制,才是真正解决高并发访问的根本。

在经过量次论证和POC测试后, 12306 选择Pivotal Gemfire作为系统改造的平台,其主要缘由以下:

1. 关联数据节点设计:可以根据客户的业务逻辑特性和数据关联性,将关联性强的数据放置于同1个服务器节点,提高系统性能,避免散布式系统服务器的频繁数据交换。

2. 将数据移到内存:由于数据是放在内存里面,屏蔽传统数据库频繁访问, CPU与数据库的交互作用,影响服务器性能。内存的数据交换速度远高于磁盘速度上千倍, 极大提高系统性能。

3. 扩大和伸缩性:以Gemfire构建的利用云平台,是以 x86 PC服务器为主的硬件基础。在保证系统的性能下,此平台可以随着客户业务的成长来任意调配x86服务器的数量,避免以后昂贵的硬件升级带来的困扰。经POC测试结果显示,全部系统性能可随着服务器的数量的增加实现几近线性的成长。

4. 数据可靠性:在同个集群里面可以有多个数据节点备份,数据可以自动同步,或是将内存数据持久化到硬盘或是数据库

5. 跨地域的数据散布或同步 :可以透过广域将指定的 Gemfire集群的内存数据实时同步到异地的数据中心。这是属于利用层的数据同步异于传统的数据库同步。

6. Pivotal Gemfire使用 x86 PC服务器,其性价比远远高于 Unix 小型机。

(1)络阻塞是个门坎

络是进入12306征程的出发点,络带宽快慢常常决定秒杀的结果,这在很多电商站促销时常常产生, 因此12306也没法避免。下面数字是由互联搜集得到的,可能有偏差。但我们尽量根据这些数目字来解析数年来络缘由产生的问题。

2012 年:12306 第1次在春运使用, 络带宽1.5G,可以支持的PV值是11,250;根据报道,此系统有10,000人的登陆限制, 假定每人每秒点击1次的话,理论上是可以委曲支持正常的点击量。

但在购票尖峰日,有上千万的民第1次上购票,在没法登陆的情况下, 用户不断刷取首页,或是已登陆者没法得到系统的及时反应,不断点击页面,产生大量的要求,造成络和系统的高负载,导致崩溃。

2013年 :宽带增加1倍到达3G频宽,有20万用户登陆的限制,采取10次放票,分散流量,避免买票过度集中;但不幸的是刷票软件横行,每秒可以刷票数10次到数百次,高峰期有25万的PV值, 远远超过带宽的理论值 22,500 PV。

2014年 : 宽带增加到达5G,16次放票,有屏蔽刷票软件抢票的设计,有效阻挡90%的点击,但实名制有漏洞,每秒还是有15万次的阅读需求,远超过37,500 PV的的理论带宽承载量。

2015年 : 12306有21次放票,增加带宽到12G,订票(流量小)分担25%的12306售票,解决实名制的问题,可以阻挡95% 刷票软件的点击量,每秒有117,800次的浏览要求,此数目字已很接近理论带宽承载量117,400 PV值。

根据上述解析, 2012年 2014年春运的络带宽给12306带来很多问题。根据民的反应,在2015年12306带宽在 12G的情况下,虽然略微有点卡, 但是大致的反应还是不错的。此轮点与我们的推论是大致符合。

1. PV值和放票次数是根据互联的报导。

2. 2013年与2014年的PV值有10倍的差异, 2014年多了6次放票时段,票的出售量增加90%。但在 2013年,极有多是大部份的票量集中在少数时段就放完,减少屡次的秒杀产生。

3. 2012和2013年, 12306 没有屏蔽抢票软件的设置。在2014年以后,实现了基本的屏蔽功能。 假定此在2014年可以阻挡90%抢票软件的点击, 在2015年可以阻挡 95%的点击。

4. 在2015年, 假定互联的平均PV值的数据量是15K byte, 上的PV值是 1K byte,占有25%的流量。

5. 带宽理论PV值/秒 : 1G的带宽是1,000,000,000 bit/second,1 byte = 8 bits.

2015年平均PV值 =11.5K byte (含上), 2012⑵014年的PV值= 15K bytes。

另外,假定斟酌络IP协议交换有10%的消耗。

6. 浏览要求PV值/秒:假定在每一个放票时段,抢票的高峰期是5分钟(含查询, 下单,付款等操作),在高峰期5分钟的下载流量是全部时段下载总量50%;

再假定有效的浏览下载量是5%上传的要求点击量,换句话说,有95%的点击量被屏蔽,多是阻挡刷票软件,或是络阻塞丢包,或是系统繁忙没有反应等等。

(2)服务器集群性能没法伸缩性扩大

参考互联上的资料,12306服务器集群是传统的3层架构设计,如果不斟酌前真个F5负载均衡服务器,它是由 数百部 Web服务器集群和利用服务器集群构成前端,64部数据库小型机集群(用于专门实现并行计算每班车次的余票量),和订单处理服务器集群构成后端。从专业的角度来看,此种框架设计是中规中矩的,国内99%的框架设计师都是如此设计。

如前述所提,由于Sybase数据库的缘由,此种设计没法做伸缩性的扩大。因此,12306要进1步提高性能就面临很大的决定。在此,先了解服务器集群性能与实际需求之间有多少差距。

回顾2012年到2015年,12306系统在这3年内有很大的变化。

1. 2012年春运 :根据互联上的信息,2012年 12306设计的售票指标是在100万张票的销售,这完全低估了互联民的实际需求,在尖峰日,有上千万人登陆。络带宽,Web服务器集群,利用服务器集群,余票查询/计算集群,到定单处理集群, 这些设备性能完全没法应付高流量高并发的要求。由于极大的低估互联的需求,造成12306全部系统不稳定。

在12306系统,余票查询/计算子系统是复杂的, 耗费服务器CPU资源。在全部客票系统里,有数10条行车线路,有3000多个车次(G,D,K,Z,C,..),5000多个火车站,不同的席次(硬座,硬卧, 软座, 软卧, etc),座位等级(商务, 1等, 2等),和车票等级(1般,军人, 学生,残障,小孩)等因素,将这些参数换算成数学模型,那可是有数千亿条的排列组合。

2012年的余票计算系统实际处理能力据估计不会超过 300⑷00 TPS,而有效的余票查询要求远远高于3000 QPS (query per second)。另外,系统每隔10分钟更新车次的余票,这些余票信息是没有参考价值,由于在10分钟里已售出数10万张票。如果要满足余票计算的需求到达少 3000 TPS, 那末12306 需要再增加6倍的服务器,行将近 400部小型机(原有系统有64部服务器)。

2. 2013年春运:在2012年6月进行第1步余票查询/计算改造,使用Pivotal Gemfire改造后的结果是每秒少支持 10,000 TPS 以上,此数目字已足够应付高并发的需求,因此在2013年春运余票查询顺利过关。 由于集群计算能力大增,余票更新缩短到每隔2分钟提供及时的信息。

在余票查询瓶颈移除后,订单处理服务器的瓶颈就出现在订单排队,民必须等待数10秒到数10分钟才会得到定单的确认。订单的要求积累高达数千乃至数万个以上,估计当时订单处理服务器的处理能力不超过 200⑶00 TPS。

3. 2014年:在2013年后,进行定单分库2级查询处理,将定单生成与订单查询分开处理。由于定单查询的数量远远超过定单生成的数量。因此, 12306将查询定单的热门数据放在Gemfire集群, 将历史定单数据放在Hadoop集群。如此设计,不但提高订单查询的功能数10倍,而且定单生成的性能少也提高5倍以上(使用原有服务器)。

4. 2015年:进1步使用Gemfire优化全部 12306系统,总共建立5个Gemfire集群。另外建立3个数据中心(高铁公司, 铁科院,和阿里云),在阿里云上部署数百个虚拟机(有 Web服务器,利用服务器,和余票查询服务器集群)分流余票查询75%的流量,由于余票查询流量占据12306整体流量的90%。

平均每次放票量尖峰有效余票

计算要求(QPS)余票计算能力(TPS)尖峰期定单

处理要求(TPS)订单处理能力(TPS)

,000 ⑷00》

,000 3000》 10,000》

,000 3000》 10,000

,500 3000》 10,

在12306系统,余票计算的结果是放在数据缓存利用服务器,在2012年每隔10分钟更新每班车次的余票结果。如果新要求与上次更新的时间间隔低于10分钟,数据缓存系统就直接返回上次计算的结果。而在10分钟左右再重新计算新的要求。在10分钟的间隔,服务器集群需要计算3000多个车次的余票结果。自2013年以后,12306系统每隔2分钟更新车次余票结果。

使用Gemfire改造后12306的现状和启示

2015年的春运购票期间12306系统的表现是很使人注视的,它的效果和影响总结以下:

1. 提供高并发,低延迟的解决方案,1劳永逸,不用烦恼后续硬件升级的问题

2. 通过GemFire多集群技术,实现多重的高可用性,确保高峰压力下和系统异常的情况下保证业务的延续性。

3. 构建1个可扩大的云利用平台架构,灵活和快速热部署的机制,为未来混合云的部署打基础。

4. 余票查询集群性能提升 :

使用数10部 x86服务器 (或是上百部虚拟机)可以到达 10,000 TPS以上,提升原来系统性能达30倍以上。原来的系统是使用64部Unix 小型机。

余票信息更新从原来10分钟缩短到2分钟,使信息更有参考价值。

5. 12306定单分库2级查询子系统:

将定单生成与订单查询分库处理,定单查询性能提高50倍, 定单生成性能提高4⑸倍。

将热门订单放在Gemfire集群,将历史定单数据放在Hadoop集群。这是快数据和大数据结合的完善案例。

6. 混合云的利用:

使用Gemfire改造后的散布式系统,极易分散部署到不同的数据中心

例如,余票查询子系统可以独立于原来的大系统部署到公有云上,同时也能够再将此子系统1分为2,将另外一部份服务器部署在私有云的数据中心。即按业务需求随时部署所需要的资源,来解决高并发的困难

月经量多喝什么好
月经量多能吃什么调理
月经量多吃点什么补

猜你喜欢