![]()
最近,字节跳动发布的 Seedance 2.0 火遍了全网。
“ 终结比赛 ”,“ 人人皆导演 ”......评价近乎一边倒的狂热。毕竟,四种模态同时输入、@ 语法调度素材、原生音视频参考、自动分镜和运镜规划,这样的功能清单确实漂亮。
但 “ 导演 ” 这两个字让人警觉。要知道,导演不是把画面做漂亮的人,导演是知道要让观众感受到什么的人。只有当 AI 能真正理解叙事意图并自主做出合理的镜头决策时,它才配被叫做导演工具。
相比其它视频模型,Seedance 2.0 最大的特点是分镜能力和多模态参考能力,还有一个比较少被提及的指令遵循能力,所以知危决定将测评聚焦在这三个维度上。
测评结果先说一半:Seedance 2.0 在中低难度场景上给了我真实的惊喜,某些镜头的质感和分镜逻辑甚至远超出了我的预期,而且模型的每个生成结果,基本都让人感觉不会一无是处,总会有一些细节是可保留,或启发新的想法。
但当我们把难度推到类似《 进击的巨人 》“ 兵长砍猴 ” 这种级别,高速立体运动搭配中近景镜头,再加上极端尺度差、连续动作因果链、镜头语言本身承载叙事等等要素,它的上限就清晰地暴露了。
这篇测评,会完整呈现从惊喜到撞墙的过程。
分镜运镜测试
首先是多主体交互场景,比如足球比赛,通过五次传球配合打进球门的情节,其实镜头比较好切分,只需要对准每次队友配合和对手攻防涉及的主体就行,运镜则需要紧跟交互主体的变化,并视交互情节确定运镜类型。
我们首先测试没有分镜和运镜提示的提示词,看模型在这个复杂度下是否能做好。
提示词:
在一场足球比赛中,面对强大的红队球员,蓝队球员通过精妙的传球配合五次,最后成功射门。
第一幕:拉开序幕(传球 1-2)
画面中心,蓝队 8 号面对红队 3 号逼抢,冷静地用内脚背将球分给后撤接应的队友蓝队6号。
队友蓝队6号接球后毫不粘球,直接一记精准的斜长传,球划过一道优美的弧线,精准落到高速插上的右边锋蓝队7号脚下。
第二幕:渗透防线(传球 3-4)
边锋蓝队7号在底线附近突然急停扣球,躲过红队9号滑铲,将球平推至禁区弧顶。
对方两名后卫红队1号、红队2号包夹上前,蓝队7号顺势将球轻轻一磕,球从后卫红队2号胯下穿过,传回给高速后插上的队友蓝队1号,完成配合。
第三幕:致命一击(传球 5 + 射门)
蓝队1号不等球落地,直接一记手术刀般的直塞,撕开了防守最后的防线,并将球传给前锋蓝队10号。
前锋蓝队10号面对出击的门将红队11号,冷静地侧身摆腿躲过防守,轻轻将球踢向球门。
皮球擦着草坪划出完美的直线,**“砰”**的一声撞在内侧门柱弹入网窝。
生成结果:
整体完成得很好,最后也是蓝队 10 号完成了射门,当然蓝队 10 号没有完成提示词中提到的和红队 11 号门将的精彩交锋。此外,中间有很多蓝队 7 号和蓝队 1 号的操作被 10 号取代了,或者说号码显示错误了,分镜基本是走一镜到底的模式,中间只有一次变化,就是蓝队 1 号( 号码显示为 10 号 )将球传给蓝队 10 号的瞬间,运镜没有起伏变化。当然,也有各种穿帮,比如第一幕球场全景场上人数太少了不符合逻辑,但要强调的是,我们第一次生成就到了这个程度,我们没有多次抽卡选最好的,能有这个效果可以说是瑕不掩瑜。
分镜和运镜没有错误,但也缺乏特点,可能是在信息密度大的任务下的一种妥协。
接下来,我们看添加了分镜和运镜细节的提示词,会有什么不同。
提示词:
在一场足球比赛中,面对强大的红队球员,蓝队球员通过精妙的传球配合五次,最后成功射门。
第一幕:拉开序幕(传球 1-2)
镜头 1(中景): 画面中心,蓝队 8 号面对红队 3 号逼抢,冷静地用内脚背将球分给后撤接应的队友蓝队6号。
镜头 2(全景): 队友蓝队6号接球后毫不粘球,直接一记精准的斜长传,球划过一道优美的弧线,精准落到高速插上的右边锋蓝队7号脚下。
第二幕:渗透防线(传球 3-4)
镜头 3(特写/跟拍): 边锋蓝队7号在底线附近突然急停扣球,躲过红队9号滑铲,将球平推至禁区弧顶。
镜头 4(低角度): 对方两名后卫红队1号、红队2号包夹上前,蓝队7号顺势将球轻轻一磕,球从后卫红队2号胯下穿过,传回给高速后插上的队友蓝队1号,完成配合。
第三幕:致命一击(传球 5 + 射门)
镜头 5(慢动作): 蓝队1号不等球落地,直接一记手术刀般的直塞,撕开了防守最后的防线,并将球传给前锋蓝队10号。
镜头 6(第一人称/主观镜头): 前锋蓝队10号面对出击的门将红队11号,冷静地侧身摆腿躲过防守,轻轻将球踢向球门。
镜头 7(终结): 皮球擦着草坪划出完美的直线,**“砰”**的一声撞在内侧门柱弹入网窝。
生成结果:
可以说所有分镜和运镜效果都出来了,整体观感更好,比如长传用全景更能看清,而且大部分的内容也都有呈现,只是还有不少偏差和遗漏,比如镜头 2 中蓝队 6 号直接把球长传到了球门处,蓝队 7 号和红队 9 号的交手通过特写大概能看清,然后球就被传到了蓝队 1 号,上来拦截蓝队 1 号( 本来应该去拦截蓝队 7 号的 )的两个红队选手,转身前背面写的是 9 号和 1 号,转身后正面就变成了 2 号和 3 号,但实际上要去包夹的应该是 1 号和 2 号,最后蓝队 1 号确实把球传给了蓝队 10 号,但过来拦截的红队 11 号门将没有门将的穿着,终结时使用的也不是第一人称视角。
目前猜测可能是提示词太多了模型忙不过来,注意力崩溃了。比如在生成的另一个版本中,前半部分几乎完美呈现,中间部分就开始偷懒,几乎是直接跳到了最后射门部分,而这部分倒是完整呈现了蓝队 10 号以第一人称视角躲过红队 11 号门将并轻松射门的情节( 那一瞬间还出现了两颗球,是什么新招式?)。

为此,我把第三幕内容先删除,让模型再生成一次。
提示词:
在一场中国球队之间的足球比赛中,面对强大的红队球员,蓝队球员通过精妙的传球配合五次,最后成功射门。
第一幕:拉开序幕(传球 1-2)
镜头 1(中景): 画面中心,蓝队 8 号面对红队 3 号逼抢,冷静地用内脚背将球分给后撤接应的队友蓝队6号。 镜头 2(全景): 队友蓝队6号接球后毫不粘球,直接一记精准的斜长传,球划过一道优美的弧线,精准落到高速插上的右边锋蓝队7号脚下。
第二幕:渗透防线(传球 3-4)
镜头 3(特写/跟拍): 边锋蓝队7号在底线附近突然急停扣球,躲过红队9号滑铲,将球平推至禁区弧顶。
镜头 4(低角度): 对方两名后卫红队1号、红队2号包夹上前,蓝队7号顺势将球轻轻一磕,球从后卫红队2号胯下穿过,传回给高速后插上的队友蓝队1号,完成配合。
生成结果:
这一次模型基本完美遵循了提示词,除了蓝队 7 号躲过红队 9 号滑铲之后,应该是继续平推,而不是直接传球,不过后面球又回到了蓝队 7 号脚下,7 号也顺利完成了给蓝队 1 号的传球。我没有提示模型要去射门,但模型自作主张完成了这一步,只能说,也行,那第三幕也就不用再上了。
到这里可以看到,模型自身的分镜和运镜能力是有的,但更多是求稳的风格,要做出精彩的分镜和运镜还是需要专业的提示词。另外,也能看出将信息量和生成时间合理匹配后,模型表现出的指令遵循能力确实很强。
最后,我们再来看看,这四个视频的可用率,第一个视频的可用率接近 100%,只有号码错误。第二个视频接近 90%,除了号码错误,还有一些运镜错误。第三个视频大概 70% 。第四个视频接近 95% 。Seedance 2.0 刚发布不久,有一个说法称 Seedance 2.0 可用率达到90%,看来也不算太夸张。
接下来的测评中,我们就不测试不加分镜、运镜提示的版本了,直接看模型对明确要求的复杂运镜的把控力。
下一个是交叉叙事蒙太奇分镜,这种分镜有利于表现强烈的情绪对比,以电影《 教父 》中迈克尔参加洗礼仪式的镜头与他的手下暗杀五大家族头目的镜头交叉剪辑为典范。
我们采用一个偏喜感的场景,展现一个老鼠通过台上演奏吸引台下观众注意力,并让同伴趁机盗取观众财物的搞笑情节,通过交叉剪辑镜头就能呈现情绪反差。
提示词:
![]()
生成结果:
可以看到,整体完成的还是不错的,模型确实使用了交叉叙事蒙太奇手法,也能体现出反差感,或许过程中多加入观众的表情会更好。其中有一个错误,剪断丝绸这个动作用人手完成而不是老鼠。而且可能这些信息量对于 15 秒时长还是太过拥挤,演奏鼠致谢后直接被送到同伴回撤的下水道那边去了。最后,估计这个视频的可用率大约为 85% 。
分镜运镜测试就到这里,通过对多主体动态交互、交叉叙事蒙太奇及一镜到底的实测,可以看到,模型有着极高的完成度和可用率,已从简单的 “ 视觉拼贴 ”,进阶到了 “ 逻辑叙事 ” 阶段,但在高信息压力下,可能会导致错误增加与细节缺失,需要做精细权衡。
模型虽然具备从 “ 平庸稳健 ” 向 “ 专业视听 ” 跨越的潜力,但这种跨越还是依赖人类对镜头语言的专业把控。
指令遵循测试
接下来是指令遵循能力测试,这部分测试参考了公众号《 AI加速派 》的测试方法,需要结合 Gemini 写非常细致的脚本,并事先准备完整的图像参考,由于场景是游戏《 黑神话 》中的孙悟空和红孩儿,只涉及单个 IP,所以对图像参考和融合要求不高,主要还是看指令遵循能力。
整体情节设计还是比较套路化的,孙悟空和红孩儿在火焰山上打架,一开始有来有回,然后红孩儿使阴招打倒了孙悟空,孙悟空原力觉醒,吓得红孩儿也原力觉醒,最后双方来一个大招对撞。
以下提示词展现了 “ 孙悟空和红孩儿在火焰山上打架,一开始有来有回,然后红孩儿使阴招打倒了孙悟空 ” 这部分情节,是在小云雀上用第一个 15 秒视频延长后得到的 30 秒视频。
提示词:
![]()
![]()
生成结果:

前 15 秒非常惊艳,红孩儿的冲刺、孙悟空挥舞金箍棒、红孩儿喷火、孙悟空法力弹开,这些特效都很有原厂制作的感觉。后 15 秒红孩儿偷袭孙悟空的部分比较一般,爽感不足,可能需要更精细的分镜、运镜提示词才能做好。
接下来是双方的原力觉醒部分,对于这部分,有一个印象深刻的发现,毕竟这其实是最能通过内心戏展现角色核心冲突甚至剧情核心矛盾的部分,给每一个角色尽可能多的时间,模型表现会越来越好。所以这部分将双方分开展示,并且孙悟空的原力觉醒过程给了将近 30 秒,红孩儿给了将近 20 秒。
提示词:
![]()
生成结果:

但需要提到的一点是,在表现红孩儿的一系列表情变化:狂傲、凝固、恐惧、愤怒的过程中,失败了至少三次,大部分片段都是不可用的,最后只能将表情变化和原力觉醒部分分开实现,即便如此表情变化部分也只是勉强可用。
提示词:
![]()
生成结果:

大招对撞部分,让 Gemini 按典型套路写,写的越详细越好,越史诗越好,前半部分要呈现广角全景画面,给足充分铺垫和紧张感,最后在对撞中全面爆发。
提示词:
![]()
生成结果:

我们把所有视频接在了一起,各位可以看看效果,如果稍加剪辑还是有不错潜力的。
总体来看,动作和画面质感方面的表现有非常大的惊喜,模型在处理高能物理特效( 如法力爆发、元素对撞 )与宏大场景上表现卓越,能精准还原特定 IP 的工业审美质感,而且预计也有更多的通过高精度提示词提升的空间。
但这个案例终究是强叙事驱动的,模型主要卡在微观情感表现上,比如跨度极大的表情梯度变化( 从狂傲到恐惧的转折 ),这会带来较大的叙事瓶颈。
可用率方面,结合未展现的失败或不满意的片段,在这个案例中,生成长达一分半钟的视频,总共需要三分半钟的素材,可用率大约 43%,虽然有种 “ 骤降 ” 的感觉,但实际上相对当前市场整体情况已经是上升了一个台阶。
多模态参考测试
接下来是多模态参考测试,首先测试模型对音频的参考能力,时间原因知危只测试了音乐场景,没有测音效场景。
我们用来测试的第一个音频为《 青鸟 》。首先补充一点,当不输入音频文件,只用文字提示时,虽然效果也很不错,但可以听出来,乐队唱的歌和《 青鸟 》基本是没什么关系的。
接下来,我们把《 青鸟 》副歌部分提供给模型,并将《 火影忍者 》中的一些经典场景和一张万人演唱会图片作为参考提供给模型。
提示词:
![]()
可能是其中一张图像有鸣人的背影,结果歌手成了主角鸣人的模样( 但这是女声歌曲啊,抱歉了鸣人 )。从结果来看,还是很惊艳的,整体的万人演唱会氛围感肯定是有的,虽然剪辑有些过度密集,但看多几次也能接受。
最惊人的是,模型会自己创造或还原部分内容,比如真正开唱之前三秒的部分,我是没有提供的,模型自己延长了这部分,和原曲的旋律是一样的,但结合了现场演奏的氛围来呈现,有些音调调高了些,让人感觉乐手们在刻意表达自己的高涨情绪,模型还通过快速剪辑让这部分画面完美卡点,太细节了。
更细节的是,歌手的嘴型和歌曲也是完全匹配的。有点遗憾的是,我提供的文件时长已经接近 15 秒,模型自己再延长3秒,时间就不够用了,所以末尾就跳过了一句。
那么,接下来再来个歌曲串烧,效果会如何呢?我将《 青鸟 》替换为《 鬼灭之刃 》OP1《 红莲华 》的开头 12 秒片段,其他保持不变。
生成的整整 15 秒片段的背景音乐和原曲都没有关系,但是音色是一样的,旋律和原曲的感觉是类似的,这就很奇妙了。看来,Seedance 2.0 确实是有音乐生成和创作能力的。
音频参考能力先测试到这里,接下来是视频参考能力,这其实是最能体现Seedance 2.0 独特性的地方。毕竟基于音效和音乐生成视频都是有先例的,比如 Meta 的 MoCha 模型等。
我们通过《 龙珠 》中的经典对手戏孙悟空和天津饭的对战为例,逐步用文字提示、图片参考、视频参考,看双方的对战效果会有什么变化,以此展现视频参考的影响。
首先,只用文字提示让模型生成孙悟空与天津饭的战斗情节,并且前 5 秒参考龙珠的动作风格,中间5秒参考火影忍者的动作风格,最后 5 秒参考鬼灭之刃的动作风格。

从结果来看,并没有看到任何《 火影忍者 》和《 鬼灭之刃 》的风格呈现,全是《 龙珠 》自己的套路。接下来,我们加上图像参考,在提示词的关键词后面引用对应IP的图像。
提示词:
![]()
生成结果:

还是一样,没有看到任何《 火影忍者 》的风格呈现,对《 鬼灭之刃 》的融合是很生硬的参考图引用,并将挥舞刀刃的火焰效果理解为龙珠里常见的气功波,只有最后那张《 龙珠 》赛亚人对抗的图是很好地理解并融合了,虽然天津饭其实不可能变成赛亚人,而且也是倾向将剧情引导向参考图画面,这是优点也是缺点,优点是作为提高可控性的方法,缺点是抽象不足。
最后,我们用这三个 IP 的视频作为参考,让模型再生成一次。因为这里观察到《 鬼灭之刃 》的参考视频节奏比《 龙珠 》的更快,就把两者的参考顺序做了交换,看模型是否能呈现越来越快的战斗节奏。
提示词:
![]()
参考视频:



生成结果:
这个结果是很惊艳的。前 5 秒是类似《 火影忍者 》参考片段的拳脚过招和稳定运镜,中间 5 秒是类似《 龙珠 》参考片段的飞行战斗和追身运镜,最后 5 秒更加细节,不仅参考《 鬼灭之刃 》片段增加了对孙悟空和天津饭的面部特写,最后 1 秒也将战斗节奏提速到极致,学到精髓里去了。
但这种程度的发挥并不是稳定的,对不同题材的模仿程度也不同。比如接下来这个案例,让动漫《 葬送的芙莉莲 》的主角模仿动画电影《 蓦然回首 》的主角藤野的雨中漫步经典片段,要模仿到动作和表情,并且天空要加上动画电影《 你的名字 》中的流星效果。
提示词:
![]()
参考视频:


生成结果:

第一个结果基本完全没有可用性,芙莉莲没有执行任何藤野的动作( 难道是因为拿着魔杖的原因?),表情也没有相应的变化,流星的效果是直接拼接上去的。将视频时长从 5 秒延长到 10 秒后,结果会有所改善吗?
生成结果:

确实有改善,但也没有完成提示词的要求,其中踩水的效果是硬加上去的,没有动作和表情的配合,而且对流星效果的呈现是违反当前正在下雨的天气状态的。
最后,我们再来做两个极限测试。既然从孙悟空对战红孩儿、孙悟空对战天津饭的案例中可以看出,模型对相同 IP 的元素融合会更加自然,那就看看在相同IP的高难度分镜、运镜场景下是否还能很好地融合。
首先,我们尝试微调《 鬼灭之刃 》中妓夫太郎与宇髓天元的最终决战画面,把宇髓天元改为炭治郎,保持动作和运镜,并加上一个终结战斗的动作参考。
![]()
动作和运镜参考视频:

终结战斗参考视频:

生成结果:
整个视频沿用了大量原来的片段,炭治郎不是取代宇髓天元,而是加入了战斗。而且很遗憾,炭治郎没有成为英雄,反倒成了 “ 间谍 ”,帮助妓夫太郎打败了宇髓天元( 当然对终结动作的二次加工还是挺不错的 )。为了避免这种情况,只能在提示词里强调一句 “ 不再出现任何宇髓天元的镜头 ”。
![]()
这句倒是很有用,宇髓天元没再出现,只是战斗情节和运镜完全成了另外的样子,在各种场景里穿插,与其说是情节,不如说是预告片。虽然有些 bug,但每个片段拆开来看都是很精彩的,画面风格很官方,质量能让官方瑟瑟发抖,不过串联起来就看不懂了。

我们再看另一个极限案例,模仿《 进击的巨人 》中的 “ 兵长砍猴 ” 情节。这个一分钟的情节可谓分镜天花板,每一帧都在全面考量直观的力量表现( 比如兵长冲破烟雾力度的刻意夸大 )、情绪传递和递进( 比如从兵长的面部特写到眼神特写 ),以及更加隐性的信息量恒定( 比如野兽巨人将手臂伸出的过程 )、画面自然过渡( 比如从吉克的脸过渡到野兽巨人的脸 ),还有最基础的蓄力发力打击动作逻辑( 比如最后的 “ 炒菜 ” 情节 ),分镜段位可谓是 “ 微分 ” 级。
那么,Seedance 2.0 能模仿这种分镜技巧到什么程度呢?来试试看。第一次尝试先把难度降低,把视频中的利威尔改为三笠即可。
提示词:
![]()
参考视频:

生成结果:

这个结果只能说毫不相关,而且模型依然很喜欢将参考图直接引用,并试图自然地通过情节演化到这个参考图瞬间,但缺乏叙事理解。
到这里,基本上可以认为,这种 “ 微分 ” 级别的分镜、运镜技巧,模型还没有学会,模型默认更倾向稳定的运镜模式,对离散组合的技巧( 比如前面测试的足球、交响乐等场景 )提示能较好执行。
最后,索性开开脑洞,做一个开放性的尝试,让《 鬼灭之刃》的我妻善逸来替代利威尔与野兽巨人战斗,不用那么复杂的招式,一招 “ 霹雳一闪 ” 即可,因为动作差别太大,所以加了很多提示词描述细节。
![]()
生成结果:
这是一个非常精彩的结果。前面 3 秒的时间都在铺垫情绪,表现野兽巨人的嚣张和善逸的愤怒( 有没有发现,背景音乐也是《鬼灭之刃》的风格 ),善逸是小打大所以确实需要在空中飞,连大风吹头发的效果都很好呈现了。
终结动作上,很忠实再现了善逸一招定胜负的战斗准备姿态和 “ 霹雳一闪 ” 的冲刺效果,也有参考原视频顺着手臂去攻击头部,还用重复播放野兽巨人面部表情来展现野兽巨人的惊讶和恐惧,最后的雷暴效果力量感十足,画面抖动这个细节也遵循了。
模型使用了非常快速的交叉叙事蒙太奇分镜技巧来展现,在还没学会 “ 微分 ” 级技巧的现状下,这确实是很好的表现快节奏情节的手段。唯一的遗憾是没有呈现乌云密布、风云变色的效果,氛围稍差一些。
总体来看,音频参考测试表明,模型已超越了简单的背景配乐,进化为能够驱动画面节奏、剪辑卡点乃至微表情同步( 口型匹配 )的细节叙事。
在视频参考测试中,可以看到,动态参考比静态参考更有引导性,通过视频引导,模型实现了从简单的 “ 视觉拼贴 ” 向 “ 节奏与运镜同频 ” 的变化,复刻了不同 IP 的动作风格甚至美学,虽然要发挥到这种程度是不容易且不稳定的。
而当触及了模型的 “ 认知天花板 ”,对于极高信息密度、极细逻辑粒度的分镜调度,模型也表现出明显的惰性,比如倾向于以高速蒙太奇或 “ 预告片化 ” 的离散片段降低难度。
但创意重组的尝试总是能带来意外惊喜,虽在细节准确性上仍有遗憾,创意表现力已具备工业级水准。
最后,在可用率方面,对于多模态参考场景,特别是高难度的场景,由于出错率高,目前看来还是更倾向于创意探索,而不是直接采纳生成结果,所以这里就不再估计可用率。
测评结束!
回到开头的问题:Seedance 2.0 配不配被叫做 “ 导演工具 ”?
答案是:它是一个兼具自主可靠性和能听懂导演意图的工具,但仍然不是一个能替代导演思考的工具。
具体来说就是,模型的 “ 下限 ” 被大幅抬高了。即便是失败的生成,也几乎不会出现完全不可用的废片,总有局部值得保留或二次利用。这对实际创作流程的意义是巨大的:它把 “ 能不能用 ” 的问题,推进到了 “ 怎么用得更好 ” 的阶段。
分镜能力是 Seedance 2.0 最扎实的基本盘。对于测试的较高复杂度的分镜技巧,模型都能在合理的信息密度下高完成度地执行,可用率普遍在 85%-95% 之间。但它的分镜逻辑更接近 “ 正确地完成 ”,而非 “ 精彩地表达 ”。
指令遵循能力在单一 IP、清晰脚本的条件下表现优异,动作质感和特效水准已经具备工业级的说服力。瓶颈出现在微观情感层面。即便如此,通过片段拼接和延长来制作长视频时也能保持 40% 到 50% 的可用率,这个水平相比之前又上升了一个段位,可以极大节省成本。
多模态参考能力是最具想象空间的部分。尤其是视频参考在跨 IP 风格融合上的表现,善逸对战野兽巨人那段,让人看到了 AI 辅助创作最令人兴奋的可能性,不是复制,而是重组。
但天花板同样清晰,当分镜粒度细到 “ 微分 ” 级别,当每一帧都需要承载力量表现、情绪递进、信息密度控制等多重叙事功能时,模型会本能地退回到安全区。
所以,Seedance 2.0 真正改变的,不是 “ 谁能当导演 ”,而是作为导演工具的效率,它仍然是上一代模型的延伸,只是相比上一代模型大幅压缩了迭代成本。
无论如何,坐在它对面的那个人,仍然需要知道自己想让观众感受到什么。
这一点,暂时还没有模型能替人想清楚。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.