欢迎光临365娱乐游戏平台_365电子游戏官网!
服务热线:400-123-4567

新闻资讯

google DeepMind 宣布 WebLI

日期:2025-02-16 08:34 浏览:
IT之家 2 月 14 日新闻,科技媒体 marktechpost 昨日(2 月 13 日)宣布博文,报道称谷歌 DeepMind 团队宣布了 WebLI-100B 千亿级数据集,并经由过程加强文明多样性跟多言语性,以及增加子组之间的机能差别来进步容纳性。现在挑衅IT之家注:呆板经由过程进修年夜型数据集来衔接图像跟文本,数据越多,模子辨认形式跟进步正确性的才能就越强。视觉言语模子 (VLMs) 依附这些数据集履行图像字幕跟视觉问答等义务。视觉言语模子现在依附于 Conceptual Captions 跟 LAION 等年夜型数据集,包括数百万到数十亿的图像-文本对。这些数据集支撑零样天职类跟图像字幕天生,但其开展已放缓至约 100 亿对。这种限度下降了进一步进步模子精度、容纳性跟多言语懂得的远景,现无方法基于收集爬取的数据,存在样实质量低、言语偏向跟多元文明代表性缺乏等成绩。WebLI-100B 千亿级数据集Google DeepMind 的研讨职员为了缓解视觉言语模子在文明多样性跟多言语性方面的范围性,提出了 WebLI-100B 数据集,该数据集包括 1000 亿个图像-文本对,比之前的数据集年夜十倍。该数据集捕捉了常见的文明观点,并进步了模子在低资本言语跟多样化表现等较少摸索范畴的机能。与先前的数据集差别,WebLI-100B 不是依附严厉的过滤(平日会删除主要的文明细节),而是专一于扩大数据。该框架波及在 WebLI-100B 数据集的差别子集(1B、10B 跟 100B)上预练习模子,以剖析数据缩放的影响。在完全数据集上练习的模子在文明跟多言语义务中的表示优于在较小数据集上练习的模子,即便应用雷同的盘算资本。该数据集不停止保守的过滤,而是保存了言语跟文明元素的普遍代表性,使其更具容纳性。研讨成果标明,将数据集巨细从 10B 增添到 100B 对以东方为核心的基准测试的影响很小,但在文明多样性义务跟低资本言语检索方面带来了改良。
首页
电话
短信
联系