最新动态
联盟广告平台架构及实践
2024-12-13 23:47  浏览:77

导读:随着大数据的快速发展,大数据应用已经融入各行各业,在很多场景中得到了商业化实践。今天和大家分享下 58 同城联盟广告平台架构及实践。主要包括:58 联盟广告 SSP 媒体平台、投放平台、程序化创意等核心模块的设计和实现,以及对联盟业务的思考与展望。

联盟广告平台架构及实践

58 联盟广告平台主要是以 58 站内的广告主为基础并结合站外流量,帮助 58 站内广告主获取站外潜在用户,从而实现流量变现。流量获取主要通过 SSP 和 DSP 这两种方式。

联盟 SSP 平台可直接与媒体对接,直接在媒体上展示投放的广告。DSP 是通过投放平台(例如百度 SEM、腾讯广点通等)投放到媒体上展示广告。

主要介绍以下四个模块:

① 同城宝 SSP

同城宝 SSP 主要是服务于媒体方(例如公众号,blog 站点),媒体方可以在此注册广告位,帮助媒体方实现流量变现。核心模块主要包括

媒体管理、广告位管理、广告管理、媒体报表、广告位报表、财务结算、流水记录等。

② 直投平台

直投平台是基于一些媒体平台(百度 SEM、广点通等)的 Marketing API 开发的一个平台,主要是更高效的进行广告投放,帮助我们更好的运营。核心模块主要包括统一投放网关、程序化创意生成、OCPX、账号管理、物料管理、报表服务、优化工具(批量操作、程序化调价等)等。

③ 联盟 DSP

主要与一些主流的 ADX 对接,服务于 58 运营,将运营创建的广告投放到媒体上。详细介绍见下文。

④ 创意平台

其实广告很重要的一部分就是创意,广告位的规格各种各样,比较碎片化。创意平台提供通过程序化工具生成创意图片、标题、描述等,来提高创意制作效率和效果。

媒体平台主要服务于媒体方的,媒体方可以在此平台注册公司、注册媒体和注册广告位,获得投放链接、js 或 api,然后部署到自己的媒体上,从而通过提供广告位进行变现。

对接模式目前主要支持固定链、标签云、快捷图标和 API。

① 媒体方先在 SSP 平台上注册好广告位(包括公司、媒体和广告位配置信息),然后获取广告投放链接、js 或 api 接口等相关信息。

② 媒体方将获得的链接、js 或 api 接口等信息,部署到媒体方 App 或站点上。

③ 媒体方 App 或站点请求联盟广告 API,会转向到联盟 ADX,从而对接 58 站内广告库(包括房产、招聘、二手车、黄页等),对广告库内广告进行召回并在媒体方上投放广告。

④ 媒体方 App 或站点上的广告被展示或点击,会向联盟监测上报请求,最后数据落入联盟数据平台。

⑤ 根据最终广告效果,基于分成或服务费的模式,媒体方获取提供广告位的收入。

关于如何评估每个媒体的广告效果,主要有以下三种方式,目前 58 联盟主要使用 cookie 方式。

① url

通过 URL 透传的方式,一直向下游传递广告来源参数,但维护成本高,中途容易丢失。

② 日志追溯

通过记录用户行为日志的方式进行离线归因的方式。处理用户行为日志是通过用户 SessionId 串联用户的所有行为,并按照时间戳进行排序,获取该用户第一次进入系统 URL,只需用户一跳带上来源标识即可获取用户的来源信息。缺点是工程层面无法实时归因。

③ cookie

基于 cookie 传输,维护成本低,各个系统可以从 cookie 中实时获取用户信息,支持实时归因。

流量劫持通常通过 DNS 劫持或路由器劫持的方式,将正常访问 58 的用户访问链接重定向为 302,然后在访问链接后面加上一些参数。可以采用使用全局 HTTPS、手动指定 DNS 和 HTTPS-DNS 解决流量劫持。

由于线上主流的投放平台众多,如百度搜索、百度信息流、神马搜索、360 搜索、头条搜索、腾讯广点通、头条信息流等,每个投放平台都拥有自己的私有流量,如果想要全网投放广告,需要对接平台非常之多,运营营销人员维护起来非常繁琐。MKT API 投放平台主要是整合各投放平台,降低维护难度,减少运营成本。

Marketing API 模式存在的问题:

广告竞价流程:

RTB 实时竞价过程对性能要求非常高,对接外部 ADX 要求在 70ms 内返回竞价结果,我们 58 联盟内部的性能要求是在 50ms 之内返回竞价结果。由于我们 DSP 对接多方 ADX,QPS 达到了 10 万左右。如何提高我们系统性能呢?我们目前采用异步和延时这两种方式优化系统性能。

异步

异步一般适用 IO 比较密集、请求处理时间过长、线程数较多、高负载等场景。

起初我们使用的是阻塞线程模型,遇到一些 IO 操作(如查询 Redis,调用其他服务等),线程处于阻塞状态,导致一个线程只能处理一个请求,想要提高系统处理的请求数,只能通过增加线程数类解决。线程数过大会导致线程切换开销过大,内存占用较大。

我们采用 EventLoop-Thread 线程处理多个请求,减少锁的开销,避免线程爆炸问题。在代码层面采用 Future/Promise 解决异步回调开发繁琐,代码结构复杂,嵌套较多的问题。

异步与同步压测结果对比:

延时

我们的 DSP 平台主要是基于 Java 生态的,GC 问题会导致性能下降,对广告系统影响较大。这里介绍下我们关于 GC 遇到的一个问题及解决方案。

背景:在 DSP 竞价时,需要获取当前用户所在的城市信息,之前我们是通过 IP 来查询用户所在城市,并将 IP 和 CityId(城市信息)的对应关系使用 LRU 缓存起来。

问题:上线以后,发现每 2 小时出发一次 FullGC(Old 区内存为 2G),造成 600ms STW。

分析:发现我们线上服务 TP99 在 80ms 左右,理论上应该不会有存活对象进入老年代,但是发现每次 YoungGC 有 2M 左右,发现主要是 LRU 缓存中对象进入 Old 区。

解决方案:我们之前 LRUCache 的对象数量将近 1600w 多个,进行 GC 时 JVM 会扫描存活的对象,这将产生 1000 多万次对象扫描的开销。为了避免这个问题,我们采用 Free GC 设计,通过声明一个 long 类型的三维数组(前 32 位代表时间戳,后 32 位地域 id),使用一块固定内存,这样在 GC 时只扫描一个对象。另外在凌晨 4:00 手动触发 System.gc(),避免对系统白天运行的影响。

效果:FullGC 间隔从之前的 2h 变成 30h;TP99 从 80ms 降低到 50ms;MEAN 从 13ms 降低到 11ms。

目前 DSP 平台主要是对 58 内部运营开放,推广数并不是很大。我们目前采用一个主分片和多个从分片(主要是分摊查询流量),为保证索引可用性,我们采用了双索引设计。

由于一般 URL 的长度有限制,携带的信息有限,我们采用两级 Cache,将竞价信息,如召回策略、排序策略、预估 CTR 等中间环节数据写到到缓存中,在获胜、展示和点击时从缓存中获取数据。

竞价引擎包含流量优选、召回、智能预算、过滤、CPM 报价策略和创意展示模块。

DSP 系统目前采用 Lambda 架构,以离线数据为准,保证数据的稳定性,历史数据可追溯。

标签体系主要是基于业务线构建的,上层支持 DSP、ADX、创意、落地页动态路径等应用。

由于站外媒体提供的广告位规格碎片化、创意长期投放会导致 CTR 下降需要定期更新和人工制作上传效率低,站内存在大量低质图片,导致用户体验不友好等问题,基于这些问题我们开发了程序化创意平台。建设程序化创意平台需要面临如何程序制作符合美学的图片和如何应对数据量和检索量过大的挑战。

提供服务发布 API,供 DSP 投放平台、站内广告系统等。

创意图片渲染引擎(Creative-Builder),提供图片自动化生成,包含特征抽取、配置组装、规则优选、图片渲染等模块。从广告中抽取一些核心元素(如标题、标签等),根据用户的需求配置检索合适的模板然后进行组装,基于标签、配色等组合策略优选出合适的素材,然后进行渲染,并上传到 CDN,同时同步到创意索引中。

创意索引会基于 CTR 预估将多张创意图片针对不用用户进行优选,创意的展示点击数据会回传到我们平台,形成数据链路闭环。

程序化创意索引设计采用的是 58 自研云搜体系,当 shard 数量过多时,会导致读写扩散,增加 CPU 和 IO 额外开销,产生性能瓶颈。针对上述问题,我们对路由策略进行优化,尽量将查询路由到较少的分片上。

路由策略仅由 IndexBuilder 和 Router(Redis) 控制,索引扩容时只需修改 RoutetConfig,增量数据就会使用新的路由策略构建索引,再针对待迁移 slot 触发重建即可,从而解决了索引扩容和重建的问题。

嘉宾介绍:

曲瑶,58 同城商业产品技术部架构师。2014 年加入 58 同城,主要负责联盟广告平台的研发和优化工作。

本文转载自:DataFunTalk(ID:datafuntalk)

原文链接:

    以上就是本篇文章【联盟广告平台架构及实践】的全部内容了,欢迎阅览 ! 文章地址:http://xiaoguoguo.dbeile.cn/quote/3524.html 
     行业      资讯      企业新闻      行情      企业黄页      同类资讯      网站地图      返回首页 多贝乐移动站 http://xiaoguoguo.dbeile.cn/mobile/ , 查看更多