为什么全民k歌歌来了黑粉丝不停的加太多了咋办

拉黑只是让他不能评论你的歌曲其他还是能做的

你对这个回答的评价是?

下载百度知道APP抢鲜体验

使用百度知道APP,立即抢鲜体验你的手机镜头里或许有别人想知道的答案。

最近为什么全民k歌歌迎来了它嘚三周年庆,三年里为什么全民k歌歌一步步走来,承载了太多人的回忆和故事用心的用户每年周年庆都会有一个定制MV送给为什么全民k謌歌,作为这个产品最早期的设计师之一常常感觉非常骄傲和幸运。

这篇文章想通过最近完成的歌房项目,复盘整个K歌的设计历程吔作为一个回顾和小结。

在我的理解设计分三个层次,界面设计-体验设计-生活方式设计

界面设计是最基础的功能布局、逻辑跳转,而体验设计是关于用户更立体的需求、动机、行为;生活方式设计则是需要在体验设计基础上于生活的各个可被设计的触点去影响用戶,培养使用习惯最终构建行为习惯,成为一种生活方式

我们在最近一年里,完成了为什么全民k歌歌TV版友唱团队合作推出了线下M-bar,囷联想、迅途合作推出麦克风……这些其实都是在商业生态的层面不断拓展和用户在生活中的触点通过这些触点不断影响用户,影响大镓休闲娱乐的生活方式

歌房是一个多人实时唱歌互动的虚拟空间,歌房的设计完整打造用户在这里唱歌互动的体验是一个完整的体验設计的案例。

在我看来体验设计的关键点在于回答三个问题:从何而来、到哪儿去、如何做到。从何而来需要你深刻理解你的产品、伱的用户,清楚需求的来源;到哪儿去则是需要分析清楚具体需求,确定设计目标;如何做到则是在具体达成目标的过程中遇到问题、解决问题

优优教程网是优设旗下优质中文教程网站,分享了大量PS、AE、AI、C4D等中文教程为零基础设计爱好者也准备了贴心的。开启免费洎学新篇章按照我们的专栏一步步学习,一定可以迅速上手并制作出酷炫的视觉效果

设计导航:国内人气最高的设计网址导航,设计師必备:

┓ 为什么全民k歌歌歌房后台架构與优化 腾讯音乐社区产品部 郑飞

2013年加入腾讯QQ音乐团队 为什么全民k歌歌后台高级工程师,从零开 始搭建为什么全民k歌歌多个后台服务主導 了为什么全民k歌歌直播后台的架构设计,目 前负责为什么全民k歌歌直播、歌房以及大数 据分析的构建和优化 个人介绍

项目 介绍 在线 合唱 安全 运营 后台 架构 内容大纲

为什么全民k歌歌歌房项目是将线下的KTV的 体验搬到线上,让用户可以在不用 购买额外设备的情况下随时随地 體验K歌的乐趣。除了传统的独唱的 玩法外我们首创推出在线实时合 唱的玩法,在技术上我们不断打 磨歌房的唱歌体验,并搭建了一套 咹全、稳定的在线歌房服务 项目介绍

歌房功能 视频 权限管理 禁言 大喇叭 聊天 美颜 合唱 录制 排麦 回看 排行榜 小喇叭 鉴黄 音频 送礼 推流 点歌 轉码 观众人数

歌房项目简介 首创在线实时音视 频双人合唱 ?覆盖手机、TV等多个终端,将线下KTV体验搬到线上 领先的唱K体验 ?高品质伴奏、48K采樣率、64K以上码率、多种音效 ?实现人声/伴奏/歌词的高精度同步 ?智能地语音席、唱歌音量调整 高安全性、高稳定 性的歌房服务 ?完善、多維度的监控平台 ?稳定、容错容灾能力强的后台服务

直播流如何对齐合并 伴奏歌词如何同步? 用户的麦序如何保证 在线合唱

合唱 网络端对端延迟造成无法实 时合唱 对网络要求严格、对网络抖 动敏感 TV版的系统音频延迟 人声/伴奏/歌词要求毫秒级 别的对齐 稳定、安全、容灾强嘚歌房 服务

实时在线双人合唱方案对比 优点 ? 合唱双方和后 台实现简单 缺点 ? 对齐效果差 ? 两路流会相 互等待,大 大增加卡顿 和延迟 优点 缺点 ? 客户端实现简 单 ? 对齐效果差 ? 服务端要做 mix和对齐 计算成本大 ? 两路流会相互 等待,增加延 迟和卡顿 优点 ? 实现简单 ? 由于参与鍺根 据发起者的音 频来唱不需 要做复杂对齐 逻辑,只需做 好人声和伴奏 的对齐 缺点 ? 合唱参与端对 网络和机器性 能有一定的要 求

首创实時在线双人合唱 首创在损失领唱少量体验的情况通过使用串行数据传递的方式实现双人合唱

歌词伴奏同步 ? IM消息同步伴奏信息和 播放时間 ? 播放没有严格按照时间 轴,快进慢放策略导致 歌词偏差 ? 每20秒同步一次信令 广播当前音视频时间戳 和伴奏播放进度,通过 偏移量计算修正

麦序服务难点 ? 麦序变更消息丢失怎么处理 ? 上麦用户掉线如何处理? ? 麦序消息和本地麦序列表不同应该相信哪个

稳定的麦序服务 加入麦序列表 定时到期 麦序定时器 当前麦序 通知定时 申请排麦 心跳上报 排 麦 用 心跳 户 服务 在 线 检 心跳上报 测 麦序 服务 用户B 定时查询 鼡户A ? 上麦等待定时 ? 歌曲演唱定时 麦序到 达 麦 序 1 麦 序 2 麦 序 3 麦 序 N … 消息通知 独 唱 合 唱 请求上麦 确认上 麦 选择合 唱者 播放伴 奏唱歌 合唱者 上麥 通知后台 切麦 ? IM消息实时通知 和定时驱动双重 保证麦序实时性 ? 请求和确认两步 上麦,避免异常 上麦 ? 心跳逻辑实现掉 线检测快速切 換麦序 ? 通过唯一递增序 号解决消息乱序 问题 ? 后台对麦序增加 监控服务,异常 自动恢复机制

消息触达率怎么保证 消息实时性如何提高? 后台可用性怎么保证 后台架构

消息系统架构 ? 可用性 1.存储写操作跨机房容灾 2.长轮询模块三地部署,就近接入 WNS ACC WNS Dispatch 3.大小房间隔离部署 IM Dispatch ? 触达率 1.消息划分优先级重要的消息优 长轮询服务 K歌业务后台 消息共享内存缓存 消息写服务 消息限流策略 消息合并写策略 写入消息seq列表 普通消息列表 存储 信令消息列表 存储 礼物消息列表 存储 消息同步服务 增量同步 消息读服务 拉取消息 大喇叭消息列表 存储 C2C消息列表 存储 先下发 2.消息通过seq拉取,确保消息的 触达率 ? 监控 1.长轮询SEQ连续性监控消息丢失 率 2.消息轮询读取延迟监控(超过5s 上报失败)

歌房后台容灾和故障处理 主播類型 bitmap 房间号 分配 动态 权限服务 排行榜 歌房Portal页 歌房push 房间管理 服务 同步中心 观众列表 歌房流 水 观众流 水 个人主页 场次服务 安全审核平台 观看历史 点歌服务 排麦服务 礼物服务 hippo 礼物消 费流水 消息服务 大喇叭消息 服务 消息频控 安全打击 IM SDK后台 ? 柔性处理 高峰期c端歌房发起数量控 制码率控制 屏蔽掉部分观看入口 ? 容灾 核心数据Top1万个房间信息 cache在内存中 多队列流水,避免堵塞 ? 立体化监控 上下行容量监控 流水拥堵监控 哈勃、模调、monitor监控 ? 灰度发布 按照积分、尾号、主播类型 进行灰度放量

1. 直播流旁路推流可以实时查 看歌房的情况 2. 对直播流进行截图,按图片的 敏感度打分提交人工审核 3. 对上麦者进行实名认证 4. 对问题上麦用户进行警告随 时切断直播信号,严重者进行 封号 安全监控

目前歌房功能在外网已稳定 运行1年左右口碑良好。 为什么全民k歌歌DAU 6200万左右 注册用户数7亿+ 欢迎加入我们! 运营数据

我要回帖

更多关于 为什么全民k歌 的文章

 

随机推荐