GVKun编程网logo

云厂商双十一促销,云服务器你pick哪家?(云服务器 双十一)

9

本文将分享云厂商双十一促销,云服务器你pick哪家?的详细内容,并且还将对云服务器双十一进行详尽解释,此外,我们还将为大家带来关于2019年微服务5大趋势,你pick哪个?、2021年企业常用的5个大

本文将分享云厂商双十一促销,云服务器你pick哪家?的详细内容,并且还将对云服务器 双十一进行详尽解释,此外,我们还将为大家带来关于2019年微服务5大趋势,你pick哪个?、2021年企业常用的5个大数据可视化分析工具,你pick哪个?、JavaWeb程序部署在云服务器上,云服务器可以控制客户端打印机打印吗、【网商双十一】基于 ServiceMesh 技术的业务链路隔离技术及实践的相关知识,希望对你有所帮助。

本文目录一览:

云厂商双十一促销,云服务器你pick哪家?(云服务器 双十一)

云厂商双十一促销,云服务器你pick哪家?(云服务器 双十一)

又到双十一,不仅是各家电商的主场show,也是各加云厂商的必争之地,那双十一期间有哪些云产品值得新人入手呢~~~

敲黑板—云服务器篇新手福利

对比阿里云、华为云、腾讯云、百度云及京东云,百度云云服务器价格绝对优势胜出。 从使用场景上来说,如果是建站等轻量应用推荐购买共享型1核1G/1核2G/2核4G/4核8G,如果是初创团队及中小企业推荐选择计算型2核4G/4核8G

个人对比了各家的云服务器价格(仅供参考)

2019年微服务5大趋势,你pick哪个?

2019年微服务5大趋势,你pick哪个?

2018年对于微服务来说是非常重要的一年,这一年Service Mesh开始崭露头角,解决服务间复杂的通信问题,这一年很多国内互联网公司已经有了较为成熟的微服务实践案例,网易云主办的微服务实践沙龙中也曾邀请过多位微服务大咖带来干货分享。2019年微服务领域又有哪些新趋势呢?


在2018年初,来自Redpoint的VC Astasia Myers曾成功预测过Service Mesh,事件驱动的架构,容器本地安全等趋势,而在2019年初,他们认为微服务将在以下领域取得重大进展:

  1. 测试自动化

  2. 持续部署/持续验证(CD/CV, Continuous Deployment/Verification)

  3. 应急响应

  4. 云服务费用管理(CSEM, Cloud Service Expense Management)

  5. Kubernetes扩展到机器学习领域


趋势1:CI来了,自动化测试也该兴起了

传统模式下,测试用例的设计通常用来判断软件能否在不同场景下正确地运行,通常由QA工程师创建和运行测试用例。现在,在持续集成(CI, continuous integration)的pipeline中,软件工程师开始从传统的QA团队中接手部分测试的职责,这也给开发者带来了新的负担。


大部分业务团队都希望有一套能够自动化地设计,运行和汇报结果的软件测试解决方案,并且这套解决方案能够和CI系统无缝兼容,实时检查最新的代码,像人工一样添加注释。这套解决方案还要有UI界面,以便于工程师们能在用户界面中寻找问题,减少漏判。大多数情况下,我们通过界面鼠标点击的方式来完成测试,但是有时这种测试方式并不能覆盖所有场景,而API测试往往能更好地解决这种问题。


在网易轻舟微服务平台中,GoAPI接口测试是以接口生命周期管理为核心理念,以提高微服务测试效率为核心价值的协作平台,提供一站式接口管理、测试方案。通过接入GoAPI测试,德邦快递的自动化测试已经覆盖核心系统主流程,发现缺陷率达到49.8%。


趋势2:高效的持续部署/验证,将替代低效的手动部署

据说在某些金融机构中,有十分之一的DevOps工程师从事的工作是部署软件到生产环境中。持续部署将代码从测试到部署的过程自动化,代替了DevOps工程师的手工操作,假设持续部署软件仅取代全球10%的DevOps工程师的价值,整个持续部署的市场规模也将接近20亿美元。

持续验证在持续部署之上加了一个智能层,从日志和APM中收集事件数据,并通过机器学习技术,去分析导致成功和失败部署的特征。持续验证还应该提供人工介入的接口,以便工程师能提供反馈,提高模型的准确度,并与系统建立信任。此外,持续验证通常还能够安全地回退失败的部署。相信未来持续验证可以帮助持续部署在多云环境下成为一个智能的控制点,它还可以基于服务的特征,去选择最合适的云,区域和配置。

在轻舟微服务平台中,CodePipeline提供一整套端到端的工具链,打通代码检出、编译、镜像构建、部署、测试阶段,帮助团队提升使用微服务架构时的持续集成、持续交付能力。基于Codepipeline,网易考拉的变更频率由每天2次增长到每天1000次以上,结合熔断,限流,降级等策略,软件产品质量提升52%。


趋势3:宕机不用怕,应急响应来“救火”

宕机通常会带来财务损失,所以快速的解决方案非常重要。据Gartner的数据显示,平均每分钟的宕机会给业务带来5600美元的损失,而像Amazon这这大型网站,平均每分钟的损失则高达22万美元。并且每次宕机不但会给业务带来财务损失,还会对品牌造成伤害。


SRE(Site Reliability Engineers,网站可靠性工程师)应运而生,当服务失败的时候,整个SRE团队会收到报警,同时会启动一系列的工作流。应急响应指挥官维护着一份“响应状态报告”,其中记录了事件情况,环境和修复情况。每个团队成员按照预先定义好的模板化的规程去执行解决方案。


PagerDuty,Slack,Jira,Google文档和知识库都是SRE团队用来做事件响应的常用工具。Redpoint认为这些工具可以被整合为端到端的SaaS平台,帮助自动化修复的过程,最终形成最佳实践。这个平台不光要分配角色和启动工作流,还要陈述事件的影响范围,状态,事件时间轴,会加速MTTR(Mean-Time-To-Recovery,平均恢复时间),协作和知识共享。


趋势4:不想花冤枉钱,就请把云服务费用管理重视起来

云服务费用管理(CSEM)不但对工程师和IT团队影响至深,也是整个公司面临的挑战之一。大部分业务都是混合云的部署模式,但是仅使用公有云的企业数量也有增长的趋势,随着公有云市场的扩展,成本管理和预测会变得越来越重要。


尽管市场上已经有很多云服务费用管理的解决方案,但是费用控制对云服务的客户来说依然是一个痛点。一个云服务费用管理平台应该能识别出过载或闲置的资源,需要支持预定和现买现卖,规模优化,退款,还要能设置定制的折扣,并标记异常的花费,还能根据流量的上涨和数据存储需求预测费用,此外服务优化也是关键功能。


趋势5:Kubernetes扩展到机器学习领域

Kubernetes已经成为容器编排的事实标准,它的领域也在不断扩张,未来Kubernetes将成为机器学习技术栈的一部分。比如,Google发布了开源的Kubeflow,通过添加Custom Resources Definitions (CRDs) 到集群中,扩展了Kubernetes的API,使得机器学习的工作负载在Kubernetes中成为一等公民。在KubCon Seattle 2018大会上,Kubeflow已经成为关注度最高的云原生项目。无独有偶,Lyft也基于Kubernetes构建了自己的机器学习平台。还有一些独角兽公司在试图将Kubernetes上的机器学习和分析的工作负载标准化。


你认为2019年微服务会有哪些趋势?欢迎在留言区与我们互动。

点击这里了解网易云轻舟微服务平台。

参考链接:https://medium.com/memory-leak/5-microservices-trends-to-watch-in-2019-fd2dbd33780d

本文首发自网易云社区,转载请注明出处。

相关文章:
【推荐】 网易容器云平台的微服务化实践(一)
【推荐】 多大规模的数据才值得用大数据的方式来处理?

2021年企业常用的5个大数据可视化分析工具,你pick哪个?

2021年企业常用的5个大数据可视化分析工具,你pick哪个?

1.Tableau

Tableau 帮助人们快速分析、可视化并分享信息。它的程序很容易上手,各公司可以用它将大量数据拖放到数字“画布”上,转眼间就能创建好各种图表。数以万计的用户使用 Tableau Public 在博客与网站中分享数据。

2.ECharts

Echarts可以运用于散点图、折线图、柱状图等这些常用的图表的制作。Echarts的优点在于,文件体积比较小,打包的方式灵活,可以自由选择你需要的图表和组件。而且图表在移动端有良好的自适应效果,还有专为移动端打造的交互体验。

3.Smartbi

Smartbi是企业级商业智能和大数据可视化分析工具,经过多年的持续发展,整合了各行业的数据分析和决策支持的功能需求。Smartbi满足最终用户在企业级报表、数据可视化分析、自助探索分析、数据挖掘建模、AI智能分析等大数据分析需求。设计过程可视化,操作简单易上手,编辑过程所见即所得,一屏完成自助分析,鼠标拖拉拽即可快速完成数据集准备、可视化探索和仪表盘的制作,丰富的可视化展示,轻松制作BI看板,丰富的交互控件和图表组件,提供智能图形推荐,报表图形任意切换,且不受维度、度量的限制,支持多数据来源,布局灵活,支持业务主题和自助数据集,双布局设计,跨屏发布到APP,支持流式布局。

4.图表秀

图表秀的操作简单易懂, 而且站内包含多种图表,涉及各行各业的报表数据都可以用图表秀实现, 支持自由编辑和Excel、csv等表格一键导入,同时可以实现多个图表之间联动, 使数据在我们的软件辅助下变得更加生动直观,是目前国内先进的图表制作工具。

5.魔镜

魔镜是中国流行的大数据可视化分析挖掘平台,帮助企业处理海量数据价值,让人人都能做数据分析。

魔镜基础企业版适用于中小企业内部使用,基础功能免费,可代替报表工具和传统BI,使用更简单化,可视化效果更绚丽易读。

JavaWeb程序部署在云服务器上,云服务器可以控制客户端打印机打印吗

JavaWeb程序部署在云服务器上,云服务器可以控制客户端打印机打印吗

JavaWeb程序部署在云服务器上,云服务器可以控制客户端打印机打印吗?

【网商双十一】基于 ServiceMesh 技术的业务链路隔离技术及实践

【网商双十一】基于 ServiceMesh 技术的业务链路隔离技术及实践

文|张化仁(花名:花伦 )

网商银行基础技术架构部架构师

校对|阚广稳(花名:空门)

本文 4832 字 阅读 10 分钟

|引言|

微服务架构下,服务之间的调用错综复杂,一个应用可能会承载着多种不同的业务流量。由于运行在同一个应用进程内,多种业务流量之间势必会存在相互影响的情况。

如果某种业务流量陡增,导致应用进程负载激增,进而请求排队,其它业务流量也势必会受影响。多数时候这种相互影响的情况都是在容忍范围以内或者可以规避的,特定场景下我们可能就需要考虑通过隔离某些业务流量的方式,来消除业务之间相互影响的风险:

  • 例如,当后台调度型的流量影响了在线用户请求;

  • 再如,当低敏的甚至可失败的业务影响了高敏的需要重保的业务。

业务链路隔离的诉求是业内普遍存在的。通常的方案是新创建一个应用,然后将需要隔离的业务迁移到这个新应用上。

新建应用的方式,研发运维等都需要付出成倍的成本,相关应用还需要配合改造和迁移。对于只有单个应用需要创建的情况或许还能勉强接受,网商银行部分应用例如高保极简网关、高保客户视图等当前就是采用的这种方案。这种方式是非常笨重的,而且当我们期望特定业务关联的整条链路上的多个应用都进行业务隔离的话,这种方案的成本将非线性上升进而变得难以接受。

云原生架构下,对容器和流量可以进行更精细化的管控,对于上述业务流量隔离的场景,我们有了更简洁、更灵活、更通用的替代方案--我们称之为「业务单元隔离」,可以在不创建新应用的情况下实现上述诉求。此方案当前已在包括核心链路在内的网商多个业务场景得到应用,也顺利通过了今年双十一大促的考验。

那么「业务单元隔离」具体是什么?我们是如何借助「业务单元隔离」实现业务链路的隔离呢?本文将和大家细述。

PART. 1 概念及基本原理

概念及运维模型

「业务单元隔离」是一套流量染色和资源隔离的方案,可以帮助业务相对简单地实现业务链路隔离。在调研和验证的过程我们也提出了优化改进方案并推进落地,最终进一步减轻了业务接入的成本。

「业务单元隔离」需要结合两个新的概念来阐述:「AIG」和「业务单元」。

AIG 是某个应用为了支撑某些业务而隔离出来的一组资源。由一个或多个应用的 AIG 组成的、服务与某个或某类特定业务的业务链路我们称为一个业务单元。保证有且只有符合特征的流量引流到某个业务单元,我们称之为「业务单元的隔离部署」。

AIG 运维模型简单示意

主要任务及配套设施

从「业务单元隔离」的概念中我们不难看出:要实现某个业务链路的流量隔离,至少需要做有以下几件事情:

1.业务单元构建:给链路上的应用分别创建 AIG 组成一个业务单元,且须保证不能有流量流入新建的业务单元。

2.业务流量识别:需要通过某种方式识别出上游应用流入的特定业务的流量。

3.特定业务引流:对于识别到的特定业务的流量,需要有机制让这些流量流向新创建的业务单元。

很显然,上述的这些事情,必然需要基础设施侧和应用侧相互配合才可实现。如下图所示,相关的基础设施及作用如下:

1.业务单元构建:需要为 AIG 提供完整的研发/运维/监控支持;

2.流量识别(RPC):链路中业务单元上游的应用(A)需要接入打标染色 SDK,以便通过染色管控平台下发打标染色规则;

3.流量识别(调度):复杂调度(消息触发,应用单 LDC 内自主分发批任务)通过转换成基于 SOFARPC 的流式任务,从而实现染色和隔离。

4.特定业务引流:MOSN 侧的精细化路由需要支持 AIG,让流量可以流入到新特定的业务单元。

业务单元隔离方案总览及周边配套设施

业务单元构建

业务单元实际是一个相对抽象的概念,对应一条业务链路。

网商的实践中,为了让业务单元更加具象化,我们规定一个业务单元内的多个应用,其 AIG 名称(appname-aigcode)中的 aigcode 部分必须尽可能一致。

因此,构建一个特定的业务单元,本质上是要给链路上相关的应用,都创建出服务于特定业务隔离的资源组(AIG)。

对于单个应用,构建 AIG 包含两部分:

一是初始化 AIG 元数据;

其次是围绕此 AIG 的各种运维操作(扩缩容、上下线、重启、sidecar 注入升级等)。

可以看到要支持 AIG,PaaS 侧几乎所有运维操作都需要适配,工作量非常很大。所以 PaaS 侧在支持 AIG 这件事情上也必须权衡取舍,决定只在终态的 workload 运维模式下支持了 AIG,这也导致 AIG 强依赖应用从现有的 image 的模式迁移到 workload 的模式。

workload 运维模式下,PaaS 将发布和运维的内容都编排成 CRD 资源,交给底层 sigma(K8s)做运维。切换到 workload 运维模式有利于集团统一发布运维体系,也可以更好的支持弹性扩缩容、自愈等场景。

但相比 image 模式,workload 模式对用户使用习惯和体验上冲击很大,初期相关的问题也非常多。因此尽管网商 workload 一直在有序推进,在后续核心业务接入 AIG 的项目中,为了避免强制切换到 workload 运维模式影响核心业务运维应急,我们也给 PaaS 提了支持仅对 AIG 机器开启了 workload 的诉求,并且针对这种情况做了完备的混合运维验证。

RPC 流量隔离

业务单元创建好之后,如何确保新的业务单元在不引流的情况下默认没有 RPC 流量流入呢?

应用的机器之所以有 RPC 流量流入,是因为注册中心(SOFARegistry)和跨机房负载均衡(AntVip)中挂载了机器 IP:应用进程启动成功 MOSN 感知到后,MOSN 会将服务信息注册到 SOFARegistry,发布运维过程机器健康检查通过后 PaaS 侧会调用接口往 AntVip 上挂载机器的 IP。

所以,要确保新的 AIG 机器默认没有流量流入,就需要 MOSN 和 PaaS 侧做出调整。

整体调整方案如下图所示:

默认情况下没有 RPC 流量流入 AIG 原理

如何识别特定业务的 RPC 流量呢?

上游应用接入打标染色 SDK 之后,其在作为服务端被其它应用调用、作为客户端调用其它应用的时候,都可以被 SDK 中的 RPC 拦截器拦截,拦截器对比 RPC 请求和下发的打标染色规则,一旦 match 就会在 RPC Header 中增加业务请求标识。

基于打标染色 SDK 的流量识别示意

最后,就是将流量引流到特定业务单元。

借助 MOSN 强大的精细化路由能力,我们可以让流量路由到指定的业务单元,并在业务单元内部收敛。业务单元隔离主要用到了 MOSN 的客户端路由能力,在客户端应用发起调用、请求流经当前 Pod 的 MOSN 时,可以按我们下发的路由规则控制流量的走向。

引流到特定业务单元 & 业务单元内流量收敛

调度流量隔离

调度本质是消息,简单的调度场景通常也不会有隔离的诉求。很多有隔离诉求的场景当前都是“消息任务+三层分发”的模式,利用调度触发批处理逻辑。

三层分发协议是基于 tb-remoting 协议分发请求的,不是标准的 SOFARPC 协议,不经过 MOSN,因此 MOSN 也无法控制这种请求的走向。

为了解决这个问题,AntScheduler 推出了全新的流式调度模式,通过将三层分发模式转变成多次标准 SOFARPC 调用,从而和 MOSN 无缝配合,满足流量隔离的诉求。

对于希望调度流量直接路由到 AIG 的场景,AntScheduler 界面上可以直接配置,配置后平台会下发服务级别的 MOSN 客户端路由规则。

对于整条链路隔离的场景,调度平台对接了打标染色平台,发起的 RPC 流量会自动打标,下游应用可以选择基于此标定做进一步的染色和引流。

“消息任务+三层分发” vs“流式任务”

PART. 2 异步补账链路隔离

「业务单元隔离」基础设施落地后,先后有几个业务场景逐步接入。异步补账链路隔离是「业务单元隔离」首次应用在核心链路,实现了实时交易流量和异步补账流量的隔离,避免相互之间的影响。今年双十一大促异步补账业务单元承载了 10% 的异步补账流量,表现丝滑。

接下来我将以这个项目为载体,详述我们如何借助「业务单元隔离」实现业务链路的隔离。

项目背景

项目相关的应用处于网商核心链路上,本就属于重保对象,而后续预期业务将急速发展,因此链路的高可用保障面临巨大挑战。

当前链路主要有两种流量,一种是实时类交易的流量,另一种是上游异步发起的补账流量。

对于补账类的流量,由于已经落库,对失败是容忍的。而实时交易的流量,是必须重保的对象。

后续业务发展异步补账流量将急剧增加,实时交易类的流量面临受影响的风险,因此业务侧期望能有一种方式,让异步补账流量和实时交易类的流量实现资源隔离,保障实时类交易的高可用性。

图片

总体方案

由于链路涉及到多个核心应用,如果采用传统的新建应用的方案,初期改造及后续维护的成本都极高,故而业务希望采用「业务单元隔离」的方案。经过和业务方深入沟通,确认要新创建异步补账业务单元,并承载下述流量:

1.来自上游应用 U 的异步补账流量(RPC);

2.来自上游应用 U 的补账调度的后续流量(调度->RPC);

图片

异步补账 RPC 隔离

上述异步补账单元上游应用 U 需要进行少许改造,接入流量打标染色 SDK,以便我们可以识别到异步补账的流量。

应用 U 接入 SDK 后,作为服务端被其它应用调用或者作为客户端调用其它应用的时候,都会被 SDK 中的 RPC 拦截器拦截,可以进行打标和染色处理。已染色的流量的 RPC 请求或响应 Header 中会带上流量标识,MOSN 路由时识别此标识即可实现将流量引到异步补账业务单元。

下图是异步补账的 RPC 流量的打标染色和引流逻辑示意:

图片

异步补账调度隔离

调度流量的识别需要应用从“消息任务+三层分发”模式切换到流式任务模式,转变成多次 SOFARPC 调用,进而可以借助 MOSN 精细化路由到指定的 AIG。

本项目中,补账调度 RPC 请求已经打好标识,因此仅需在上游应用 U 侧进行染色和 MOSN 引流规则的下发即可。

整个逻辑示意如下图:

图片

压测及灰度机制

打标染色 SDK 在对流量进行打标染色时是可以识别压测流量的,但本项目中我们没有使用这种方式,而是在 MOSN 路由规则中增加了限定条件。

一方面是由于 SDK 尚不支持网商压测流量识别;

另一方面 MOSN 规则下发流程上更加简单。

MOSN 路由规则支持配置多个规则,每个规则由生效范围 scope、限定条件 condition、路由目标 destination 组成,支持任何比例的灰度,也支持限定压测流量,可确保整个引流过程的安全。下图上游应用 U 灰度引流 1/1000 的压测流量(shadowTest=T)到应用 A 的异步补账 AIG(A-vostro)的 MOSN 路由规则示意:

图片

单元内流量自收敛

流量流入到业务单元内后,后续还会继续调用其它应用,需要下发 MOSN 路由规则来保证流量收敛在业务单元内部,否则默认还是会流回默认的业务单元。

起初的方案是继续借助打标染色 SDK 写入的流量标识来路由,规则如:scope: app=U;condition: sl_biz_unit=xxx;destination: mosn_aig=A-vostro。

但是这种规则是和客户端应用、服务端应用强绑定的,对于复杂的场景如本项目来说,每一条调用关系都需要下发一条规则,整体的梳理及维护的工作量是非常大的。

调研和验证的时候我们识别到这个问题,和相关同学讨论后,最终提出了更简洁可行的方案(AIG 自收敛)。在 MOSN 侧支持识别自身的 aigcode,下发给所有调用此应用的应用,规则可以简化为只和当前应用以及 aigcode 相关,如:scope: aigcode=vostro;destination: mosn_aig=A-vostro。简化后,规则数量和单元内的应用数量一致。

本项目自收敛规则如下图:

图片

|总结及展望|

本文主要介绍了网商在应对业务流量隔离场景的一种全新的解决方案以及业务实践过程。

相比传统的新增应用的笨重的方案,基于容器、ServiceMesh 等云原生技术的「业务单元隔离」的方案更加轻量和灵活。当前我们已经实现了 RPC、调度以及 HTTP 流量的隔离,后续还将进一步完善支持消息等流量的隔离。

欢迎有类似诉或对相关技术方案有兴趣的同学随时来交流探讨。

本周推荐阅读

云原生运行时的下一个五年

蚂蚁集团技术风险代码化平台实践(MaaS)

还在为多集群管理烦恼吗?OCM来啦!

Service Mesh 在中国工商银行的探索与实践

img

今天关于云厂商双十一促销,云服务器你pick哪家?云服务器 双十一的讲解已经结束,谢谢您的阅读,如果想了解更多关于2019年微服务5大趋势,你pick哪个?、2021年企业常用的5个大数据可视化分析工具,你pick哪个?、JavaWeb程序部署在云服务器上,云服务器可以控制客户端打印机打印吗、【网商双十一】基于 ServiceMesh 技术的业务链路隔离技术及实践的相关知识,请在本站搜索。

本文标签: