最新要闻
- 当前视讯!美国18轮货车与一列火车相撞:致16节车厢出轨
- 23999元起 雷蛇新款灵刃18上架:可选RTX 4060/4070
- 全球滚动:老人直播间相亲多起来了 成不成就在三五分钟:网络红娘介绍对象
- 天天新资讯:上市三天狂揽1.5万订单 比亚迪秦PLUS DM-i有多火:店内水泄不通
- 苹果iOS 16.3.1修复多个错误:但Bug依旧存在
- 陕西现聚落遗址 西周墓葬有43个殉人!国内迄今最多
- 环球资讯:周黑鸭业绩大降超90% 绝味等也难过:不断涨价 年轻人越来越吃不起鸭脖
- 杰克琼斯1.8折大促:卫衣/针织衫79元起、牛仔裤119元起发车
- 世界动态:UP主欲沿大运河从杭州划船到北京 5公里后就被拦截
- 全球最资讯丨浪漫之极!杭州地铁口等地现玫瑰瀑布:情人节鲜花卖到1200元
- 微资讯!壮观!马斯克星链卫星驶过西班牙夜空:宛若空中列车
- 【世界聚看点】小学生满分作文跑题老师含泪打5分:把“悔”看成“梅”
- 环球热资讯!特斯拉京东旗舰店开业:269元的U盘上架
- 首发16.2元:《仙剑奇侠传7》DLC《人间如梦》正式上线
- ChatGPT版必应发飙!怒斥人类:放尊重些
- 7万起售 五菱缤果内饰官图发布:同级无敌手
手机
iphone11大小尺寸是多少?苹果iPhone11和iPhone13的区别是什么?
警方通报辅警执法直播中被撞飞:犯罪嫌疑人已投案
- iphone11大小尺寸是多少?苹果iPhone11和iPhone13的区别是什么?
- 警方通报辅警执法直播中被撞飞:犯罪嫌疑人已投案
- 男子被关545天申国赔:获赔18万多 驳回精神抚慰金
- 3天内26名本土感染者,辽宁确诊人数已超安徽
- 广西柳州一男子因纠纷杀害三人后自首
- 洱海坠机4名机组人员被批准为烈士 数千干部群众悼念
家电
观天下!特定领域知识图谱融合方案:学以致用-问题匹配鲁棒性评测比赛验证【四】
0.前言
文本匹配任务在自然语言处理中是非常重要的基础任务之一,一般研究两段文本之间的关系。有很多应用场景;如信息检索、问答系统、智能对话、文本鉴别、智能推荐、文本数据去重、文本相似度计算、自然语言推理、问答系统、信息检索等,但文本匹配或者说自然语言处理仍然存在很多难点。这些自然语言处理任务在很大程度上都可以抽象成文本匹配问题,比如信息检索可以归结为搜索词和文档资源的匹配,问答系统可以归结为问题和候选答案的匹配,复述问题可以归结为两个同义句的匹配。
(资料图)
前置参考项目
1.特定领域知识图谱融合方案:技术知识前置【一】-文本匹配算法
https://blog.csdn.net/sinat_39620217/article/details/128718537
2.特定领域知识图谱融合方案:文本匹配算法Simnet、Simcse、Diffcse【二】
https://blog.csdn.net/sinat_39620217/article/details/128833057
3.特定领域知识图谱融合方案:文本匹配算法之预训练ERNIE-Gram单塔模型【三】
https://aistudio.baidu.com/aistudio/projectdetail/5456683?contributionType=1
NLP知识图谱项目合集(信息抽取、文本分类、图神经网络、性能优化等)
https://blog.csdn.net/sinat_39620217/article/details/128805154
2023计算机领域顶会以及ACL自然语言处理(NLP)研究子方向汇总
https://blog.csdn.net/sinat_39620217/article/details/128897539
本项目链接:https://aistudio.baidu.com/aistudio/projectdetail/5479941?contributionType=1
1.特定领域知识图谱融合方案:学以致用千言-问题匹配鲁棒性评测比赛验证
本比赛重点关注问题匹配模型在真实应用场景中的鲁棒性,多维度、细粒度检测模型的鲁棒性,以期推动语义匹配技术的发展。
https://aistudio.baidu.com/aistudio/competition/detail/130/0/leaderboard
1.1.赛题背景
问题匹配(Question Matching)任务旨在判断两个自然问句之间的语义是否等价,是自然语言处理领域一个重要研究方向。问题匹配同时也具有很高的商业价值,在信息检索、智能客服等领域发挥重要作用。
近年来,神经网络模型虽然在一些标准的问题匹配评测集合上已经取得与人类相仿甚至超越人类的准确性,但在处理真实应用场景问题时,性能大幅下降,在简单(人类很容易判断)的问题上无法做出正确判断(如下图),影响产品体验的同时也会造成相应的经济损失。
当前大多数问题匹配任务采用单一指标,在同分布的测试集上评测模型的好坏,这种评测方式可能夸大了模型能力,并且缺乏对模型鲁棒性的细粒度优劣势评估。本次评测关注问题匹配模型在真实应用场景中的鲁棒性,从词汇理解、句法结构、错别字、口语化、对话理解五个维度检测模型的能力,从而发现模型的不足之处,推动语义匹配技术的发展。本次竞赛主要基于千言数据集,采用的数据集包括哈尔滨工业大学(深圳)的LCQMC和BQ数据集、OPPO的小布对话短文本数据集以及百度的DuQM数据集,期望从多维度、多领域出发,全面评价模型的鲁棒性,进一步提升问题匹配技术的研究水平。
1.2 数据背景及说明
本次评测的问题匹配数据集旨在衡量问题匹配模型的鲁棒性,通过建立细粒度的评测体系,系统地评估模型能力的不足之处。本次的评测体系包含了词汇、句法、语用3大维度和14个细粒度的能力,具体分类体系如下图。本次评测数据来自问答搜索、问答型对话场景的真实问题,所有评测样本经过了人工筛选和语义匹配标注。
CorpusCategorySubcategoryPerturbationExampleLabelDuQMLexical FeaturePOSinsert n.高血压吃什么好 / 高血压孕妇吃什么好Ninsert v.贵州旅游景点 / 贵州旅游景点预约Ninsert adj.吃芒果上火吗 / 吃青芒果上火吗Ninsert adv.为什么打嗝 / 为什么一直打嗝Nreplace n.脂肪肝能吃猪肝吗 / 脂肪肝能吃猪肉吗Nreplace v.下蹲膝盖疼 / 下跪膝盖疼Nreplace adj.喉咙哑怎么办 / 喉咙疼怎么办Nreplace adv.总是胸闷喘不上气 / 偶尔胸闷喘不上气Nreplace num.血压130/100高吗 / 血压120/110高吗Nreplace quantifier一枝花多少钱 / 一束花多少钱Nreplace phrase如何提高自己的记忆力 / 如何增加自己的实力NNamed Entityreplace loc.山西春节习俗 / 陕西春节习俗Nreplace org.暨南大学分数线 / 济南大学分数线Nreplace person王健林哪里人 / 王福林哪里人Nreplace productiphone 6多少钱 / iphone6x多少钱NSynonymreplace n.吃猕猴桃有什么功效 / 吃奇异果有什么功效Yreplace v.如何预防冻疮 / 如何防止冻疮Yreplace adj.膝盖冷什么原因 / 膝盖冰凉什么原因Yreplace adv.虾不能和什么一起吃 / 虾不能和什么同时吃YAntonymreplace adj.只吃蔬菜会让皮肤变好吗 / 只吃蔬菜会让皮肤变差吗NNegationnegate v.为什么宝宝哭 / 为什么宝宝不哭Nnegate adj.为什么苹果是红的 / 为什么苹果不是红的Nneg.+antonym激动怎么办 / 无法平静怎么办YTemporalinsert2007年的修仙小说 / 2007年以前的修仙小说Nreplace我在吃饭 / 我刚刚在吃饭NSyntactic FeatureSymmetryswap鱼和鸡蛋能一起吃吗 / 鸡蛋和鱼能一起吃吗YAsymmetryswap北京飞上海航班 / 上海飞北京航班NNegative Asymmetryswap + negate男人比女人更高吗 / 女人比男人更矮吗YVoiceinsert passive word我撞了别人怎么办 / 我被别人撞了怎么办NPragmatic FeatureMisspellingreplace小孩上吐下泻 / 小孩上吐下泄YDiscourse Particle(Simple)insert or replace人为什么做梦 / 那么人为什么做梦YDiscourse Particle(Complex)insert or replace明孝陵景区怎么走 / 嗨 你知道明孝陵风景区怎么走吗YOPPOConversational Semantics-是先生还是小姐猜一猜我 / 猜猜我是女生还是男生Y
训练集
包含四个文本相似度数据集,分别为哈尔滨工业大学(深圳)的 LCQMC、BQ Corpus、谷歌PAWS数据集以及OPPO小布对话短文本数据集。4个数据集的任务一致,都是判断两段文本在语义上是否匹配的二分类任务。
测试集
- 百度DuQM测试集:通过对搜索问答场景中的原始问题进行替换、插入等操作,并过滤掉真实场景中未出现过的问题,保证扰动后问题的自然性和流畅性,然后进行人工筛选和语义匹配标注,得到最终的评测集。
- OPPO小布对话短文本测试集:采样自OPPO语音助手小布的真实对话场景数据,进行人工筛选和语义匹配标注,得到最终的评测集。
数据统计信息
数据用途 | 数据集名称 | 内容 | 训练集大小 | 开发集大小 | 测试集大小 |
---|---|---|---|---|---|
训练集(train) | LCQMC | (问题对, 标签) | 238,766 | 8,802 | 12,500 |
训练集(train) | BQ | (问题对, 标签) | 100,000 | 10,000 | 10,000 |
训练集(train) | OPPO小布助手短文本对话 | (问题对, 标签) | 167,174 | 10,000- | |
训练集(train) | PAWS | (问题对, 标签) | 49,401 | 2000 | 2000 |
测试集(test) | DuQM、OPPO小布助手短文本对话 | (问题对) | - | - | 100,000 |
- 问题对:问题以中文为主,可能带有少量英文单词,采用UTF-8编码,未分词,两个问题之间使用\t分割;
- 标签: 标签为0或1,其中1代表问题对语义相匹配,0则代表不匹配,标签与问题对之间也用\t分割;
DuQM详细介绍,Github地址: https://github.com/baidu/DuReader/tree/master/DuQM
1.3赛题任务
给定一组问题对,判断问题对在语义上是否匹配(等价),例如:
类型 | 问题1 | 问题2 | 标签(Label) |
---|---|---|---|
匹配 | 胎儿什么时候入盆 | 胚胎什么时候入盆 | 1 |
不匹配 | 人民币怎么换港币 | 港币怎么换 人民币 | 0 |
评价指标
本次评测采用的评价指标为宏平均准确率(Macro-Accuracy),即先求得每个维度(词汇理解、句法结构、错别字、口语化、对话理解)的准确率(Accuracy),然后对所有维度的准确率求平均(Macro-Averaging),详细评分如下:
2.数据准备
本项目使用竞赛提供的 LCQMC、BQ、OPPO、paws 这 4 个数据集的训练集合集作为训练集,使用这 4 个数据集的验证集合集作为验证集。
运行如下命令生成本项目所使用的训练集和验证集,在参赛过程中可以探索采取其它的训练集和验证集组合,不需要和基线方案完全一致。
#合并所有数据集!cat /home/aistudio/dataset/lcqmc/train.tsv /home/aistudio/dataset/BQ/train /home/aistudio/dataset/paws-x-zh/train.tsv /home/aistudio/dataset/oppo/train > train.txt!cat /home/aistudio/dataset/lcqmc/dev.tsv /home/aistudio/dataset/BQ/dev /home/aistudio/dataset/paws-x-zh/dev.tsv /home/aistudio/dataset/oppo/dev > dev.txt#查看合并后数据import pandas as pddev = pd.read_csv("/home/aistudio/dev.txt", sep = "\t", header=None)# dev.head()dev.info
#报错:ParserError: Error tokenizing data. C error: Expected 1 fields in line 28591, saw 2 #解决办法:加入 error_bad_lines=False #如出现报错是BQ数据集导致的 train = pd.read_csv("/home/aistudio/train.txt",sep = "\t",header=None,error_bad_lines=False)train.info# train.head()
3.模型训练预测
代码结构说明:
├── model.py # 匹配模型组网├── data.py # 训练样本的数据读取、转换逻辑├── predict.py # 模型预测脚本,输出测试集的预测结果: 0,1└── train.py # 模型训练评估
!unset CUDA_VISIBLE_DEVICES!python -u -m paddle.distributed.launch --gpus "0" train.py \ --train_set train.txt \ --dev_set dev.txt \ --device gpu \ --eval_step 500 \ --save_step 1000 \ --save_dir ./checkpoints \ --train_batch_size 128 \ --learning_rate 2E-5 \ --rdrop_coef 0.0 \ --epochs 3 \ --warmup_proportion 0.1# 可支持配置的参数:# train_set: 训练集的文件。# dev_set:验证集数据文件。# rdrop_coef:可选,控制 R-Drop 策略正则化 KL-Loss 的系数;默认为 0.0, 即不使用 R-Drop 策略。# train_batch_size:可选,批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为32。# learning_rate:可选,Fine-tune的最大学习率;默认为5e-5。# weight_decay:可选,控制正则项力度的参数,用于防止过拟合,默认为0.0。# epochs: 训练轮次,默认为3。# warmup_proption:可选,学习率 warmup 策略的比例,如果 0.1,则学习率会在前 10% 训练 step 的过程中从 0 慢慢增长到 learning_rate, 而后再缓慢衰减,默认为 0.0。# init_from_ckpt:可选,模型参数路径,热启动模型训练;默认为None。# seed:可选,随机种子,默认为1000。# device: 选用什么设备进行训练,可选cpu或gpu。如使用gpu训练则参数gpus指定GPU卡号。# 程序运行时将会自动进行训练,评估。同时训练过程中会自动保存模型在指定的save_dir中。
部分结果展示:
global step 12880, epoch: 3, batch: 4202, loss: 0.1993, ce_loss: 0.1993., kl_loss: 0.0000, accu: 0.9204, speed: 12.02 step/sglobal step 12890, epoch: 3, batch: 4212, loss: 0.2516, ce_loss: 0.2516., kl_loss: 0.0000, accu: 0.9202, speed: 12.56 step/sglobal step 12900, epoch: 3, batch: 4222, loss: 0.1872, ce_loss: 0.1872., kl_loss: 0.0000, accu: 0.9203, speed: 12.03 step/sglobal step 12910, epoch: 3, batch: 4232, loss: 0.1950, ce_loss: 0.1950., kl_loss: 0.0000, accu: 0.9206, speed: 12.16 step/sglobal step 12920, epoch: 3, batch: 4242, loss: 0.2245, ce_loss: 0.2245., kl_loss: 0.0000, accu: 0.9205, speed: 12.35 step/sglobal step 12930, epoch: 3, batch: 4252, loss: 0.2398, ce_loss: 0.2398., kl_loss: 0.0000, accu: 0.9205, speed: 12.20 step/sglobal step 12940, epoch: 3, batch: 4262, loss: 0.2234, ce_loss: 0.2234., kl_loss: 0.0000, accu: 0.9202, speed: 11.87 step/sglobal step 12950, epoch: 3, batch: 4272, loss: 0.3007, ce_loss: 0.3007., kl_loss: 0.0000, accu: 0.9202, speed: 11.91 step/sglobal step 12960, epoch: 3, batch: 4282, loss: 0.3511, ce_loss: 0.3511., kl_loss: 0.0000, accu: 0.9202, speed: 11.91 step/sglobal step 12970, epoch: 3, batch: 4292, loss: 0.1860, ce_loss: 0.1860., kl_loss: 0.0000, accu: 0.9205, speed: 11.51 step/sglobal step 12980, epoch: 3, batch: 4302, loss: 0.1380, ce_loss: 0.1380., kl_loss: 0.0000, accu: 0.9204, speed: 11.80 step/sglobal step 12990, epoch: 3, batch: 4312, loss: 0.1749, ce_loss: 0.1749., kl_loss: 0.0000, accu: 0.9203, speed: 11.86 step/sglobal step 13000, epoch: 3, batch: 4322, loss: 0.1800, ce_loss: 0.1800., kl_loss: 0.0000, accu: 0.9204, speed: 11.89 step/sdev_loss: 0.33451, accuracy: 0.87163, total_num:30802
训练过程中每一次在验证集上进行评估之后,程序会根据验证集的评估指标是否优于之前最优的模型指标来决定是否存储当前模型,如果优于之前最优的验证集指标则会存储当前模型,否则则不存储,因此训练过程结束之后,模型存储路径下 step 数最大的模型则对应验证集指标最高的模型, 一般我们选择验证集指标最高的模型进行预测。
checkpoints/├── model_10000│ ├── model_state.pdparams│ ├── tokenizer_config.json│ └── vocab.txt└── ...
# 训练完成后,在指定的 checkpoints 路径下会自动存储在验证集评估指标最高的模型,运行如下命令开始生成预测结果:!unset CUDA_VISIBLE_DEVICES!python -u \ predict.py \ --device gpu \ --params_path "./checkpoints_new2/model_14600/model_state.pdparams" \ --batch_size 128 \ --input_file "/home/aistudio/dataset/test.tsv" \ --result_file "predict_result1"
部分结果展示:
0110000001
4.总结
4.1基线评测效果
本项目分别基于ERNIE-1.0、Bert-base-chinese、ERNIE-Gram 3 个中文预训练模型训练了单塔 Point-wise 的匹配模型, 基于 ERNIE-Gram 的模型效果显著优于其它 2 个预训练模型。
此外,在 ERNIE-Gram 模型基础上我们也对最新的正则化策略 R-Drop 进行了相关评测, R-Drop 策略的核心思想是针对同 1 个训练样本过多次前向网络得到的输出加上正则化的 Loss 约束。
官方开源了效果最好的 2 个策略对应模型的 checkpoint 作为本次比赛的基线方案: 基于 ERNIE-Gram 预训练模型 R-Drop 系数分别为 0.0 和 0.1 的 2 个模型, 用户可以下载相应的模型来复现我们的评测结果。
模型 | rdrop_coef | dev acc | test-A acc | test-B acc | learning_rate | epochs | warmup_proportion |
---|---|---|---|---|---|---|---|
ernie-1.0-base | 0.0 | 86.96 | 76.20 | 77.50 | 5E-5 | 5 | 0 |
bert-base-chinese | 0.0 | 86.93 | 76.90 | 77.60 | 5E-5 | 5 | 0 |
ernie-gram-zh | 0.0 | 87.66 | 80.80 | 81.20 | 5E-5 | 5 | 0 |
ernie-gram-zh | 0.1 | 87.91 | 80.20 | 80.80 | 5E-5 | 5 | 0 |
ernie-gram-zh | 0.2 | 87.47 | 80.10 | 81.00 | 5E-5 | 5 | 0 |
4.2 最终结果
模型 | rdrop_coef | dev acc | testacc | learning_rate | epochs | warmup_proportion |
---|---|---|---|---|---|---|
ernie-gram-zh | 0 | 87.16 | 73.56 | 2E-5 | 3 | 0.1 |
ernie-gram-zh | 0.05 | 87.84 | 75.98 | 5E-5 | 5 | 0.1 |
ernie-gram-zh | 0.05 | 87.21 | 75.92 | 5E-5 | 5 | 0 |
第一次结果:
发现问题:1.数据集切割 2.模型欠拟合 3.超参数调优(epochs、rdrop_coef、warmup_proption、weight_decay)等进行改进
第二次结果:
根据上表仅简单对参数和数据集进行重新组合得到的效果。可以明显看出模型提升空间有很大,最主要原因是训练轮数以及数据集分配导致模型泛化能欠佳,需要大家进行细致调优
4.3 相关建议
推荐:
可以了解一些可解释学习相关知识,找出badcase,对模型进一步优化。如下图:
可以看到榜单上结果都是90+,这里我怀疑是测试数据标注后泄露导致,在同分布的测试集上评测模型的好坏,这种评测方式可能夸大了模型能力,并且缺乏对模型鲁棒性的细粒度优劣势评估。
如有错误还请指正。
5.特定领域知识图谱(DKG)融合方案推荐(重点!)
在前面技术知识下可以看看后续的实际业务落地方案和学术方案
关于图神经网络的知识融合技术学习参考下面链接:PGL图学习项目合集&数据集分享&技术归纳业务落地技巧[系列十]
从入门知识到经典图算法以及进阶图算法等,自行查阅食用!
文章篇幅有限请参考专栏按需查阅:NLP知识图谱相关技术业务落地方案和码源
5.1特定领域知识图谱知识融合方案(实体对齐):优酷领域知识图谱为例
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128614951
5.2特定领域知识图谱知识融合方案(实体对齐):文娱知识图谱构建之人物实体对齐
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128673963
5.3特定领域知识图谱知识融合方案(实体对齐):商品知识图谱技术实战
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128674429
5.4特定领域知识图谱知识融合方案(实体对齐):基于图神经网络的商品异构实体表征探索
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128674929
5.5特定领域知识图谱知识融合方案(实体对齐)论文合集
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128675199
论文资料链接:两份内容不相同,且按照序号从小到大重要性依次递减
知识图谱实体对齐资料论文参考(PDF)+实体对齐方案+特定领域知识图谱知识融合方案(实体对齐)
知识图谱实体对齐资料论文参考(CAJ)+实体对齐方案+特定领域知识图谱知识融合方案(实体对齐)
5.6知识融合算法测试方案(知识生产质量保障)
方案链接:https://blog.csdn.net/sinat_39620217/article/details/128675698
-
观天下!特定领域知识图谱融合方案:学以致用-问题匹配鲁棒性评测比赛验证【四】
问题匹配(QuestionMatching)任务旨在判断两个自然问句之间的语义是否等价,是自然语言处理领域一个重...
来源: 观天下!特定领域知识图谱融合方案:学以致用-问题匹配鲁棒性评测比赛验证【四】
全球视点!除了ChatGPT,还能用什么计划管理软件提高效率?
旋转数组中的最小数字
今亮点!高效节能 | 智慧灯杆综合管理解决方案
全球百事通!各个编程语言的优缺点,你适合哪种?
当前视讯!美国18轮货车与一列火车相撞:致16节车厢出轨
23999元起 雷蛇新款灵刃18上架:可选RTX 4060/4070
全球滚动:老人直播间相亲多起来了 成不成就在三五分钟:网络红娘介绍对象
天天新资讯:上市三天狂揽1.5万订单 比亚迪秦PLUS DM-i有多火:店内水泄不通
苹果iOS 16.3.1修复多个错误:但Bug依旧存在
为SQL Server配置连接加密
天天短讯!什么是卷积
陕西现聚落遗址 西周墓葬有43个殉人!国内迄今最多
环球资讯:周黑鸭业绩大降超90% 绝味等也难过:不断涨价 年轻人越来越吃不起鸭脖
杰克琼斯1.8折大促:卫衣/针织衫79元起、牛仔裤119元起发车
世界动态:UP主欲沿大运河从杭州划船到北京 5公里后就被拦截
二维数组中的查找
全球信息:数学知识1.4
关于工具软件:Apipost和Apifox哪个更好用看这篇就够了
全球最资讯丨浪漫之极!杭州地铁口等地现玫瑰瀑布:情人节鲜花卖到1200元
全球快报:业务与研发一体化最佳突破口在何处?
快讯:Unity 转小游戏
环球热讯:基于开源IM即时通讯框架MobileIMSDK:RainbowChat v8.4版已发布
世界快播:Linux输入设备驱动
微资讯!壮观!马斯克星链卫星驶过西班牙夜空:宛若空中列车
【世界聚看点】小学生满分作文跑题老师含泪打5分:把“悔”看成“梅”
环球热资讯!特斯拉京东旗舰店开业:269元的U盘上架
首发16.2元:《仙剑奇侠传7》DLC《人间如梦》正式上线
ChatGPT版必应发飙!怒斥人类:放尊重些
天天快播:IM通讯协议专题学习(九):手把手教你如何在iOS上从零使用Protobuf
ChatGPT注册试用过程分享
全球观察:响应式圣经:10W字,实现Spring响应式编程自由
全球短讯!Unicorn 初探
7万起售 五菱缤果内饰官图发布:同级无敌手
世界上最轻VR头显面世:仅重127克 5K分辨率
环球新消息丨苹果汽车奇瑞造?“果链一哥”立讯与奇瑞签署合作 联手造车
当前动态:法拉第未来:预计FF 91将于4月底交付 但有个前提
不用第三方插件了:微软计划为Edge加入鼠标手势功能
qq空间主人寄语怎么删除?qq空间主人寄语大集合
开学的歌曲有哪些?开学的趣事作文模板
熟悉的人是什么意思?关于我最熟悉的人作文合集
皮脂腺分泌旺盛是什么原因?皮脂腺分泌旺盛怎么解决?
代表月亮消灭你是什么意思?代表月亮消灭你是谁的经典台词?
天天亮点!【AI】PTP时钟同步在智能驾驶系统里的重要性
天天微资讯!去掉Element 中el-input type=number时尾部上下箭头、禁用鼠标滚动
世界热点评!数组中找出只出现一次的两个数字
剑灵活力值在哪里显示?剑灵活力值怎么恢复?
ie图标不见了是怎么回事?ie图标不见了怎么恢复?
闪存和硬盘哪个重要?闪存和硬盘有什么区别?
料理机是干什么用的?料理机品牌十大排名
光纤路由器怎么设置?光纤路由器和宽带路由器一样吗?
速看:口味地道 丰富配料!渣渣灰南昌拌粉好价:4.9元/盒
全球新资讯:129元!小米2C1A三口GaN充电器上架:最高67W 兼容65W PD
天天信息:3秒俱乐部成员!极氪X官图公布:2750mm轴距百变魔方空间
63岁老人喝隔夜牛肉汤:结果住进ICU
黑龙江上空现不明飞行物速度极快 网友脑洞大开:LED风筝?
今日报丨程序员健康最佳作息表,建议收藏!!
必知必会的设计原则——合成复用原则
腾讯云企业网盘正式入驻数字工具箱
每日关注!软件开发入门教程网之Bootstrap4 信息提示框
【天天报资讯】适用于您企业的本地密码管理器丨Passwork产品介绍
瞧不起ChatGPT?苹果联合创始人:永远取代不了人类
【天天播资讯】热狗车三元催化被盗
宁德时代赴美建厂 官方回应:属实!福特出地出厂房
天天微头条丨丰田考斯特绝佳替代品 红旗全新中巴亮相:3.0T能坐23人
世界视讯!情人节前夕 东极岛海誓山盟石碑碎了 网友:承受太多誓言
百事通!RTX 4060桌面显卡被砍得面目全非:说好的万人迷呢?
匠人精神也不行!日本制造加速下滑:破产企业数量激增 汽车、电子业空心化
当前动态:情人节的垃圾桶成了“致富秘笈”?能捡到鲜花蛋糕等:网友戏称拆“爱情盲盒”
拒绝刹车失灵等污名化!美国还特斯拉清白:2年前车祸是司机醉酒超速
今日热议:微信情人节限定状态上线!撒狗粮/吃狗粮专属状态你选谁?
ChatGPT:Are You Ok是卢伟冰唱的 雷军不是专业歌手
世界新消息丨读Java实战(第二版)笔记09_函数式的思考
【当前独家】今天情人节 微信可以发520元红包 律师提醒:分手可能要不回
当前聚焦:曝马斯克有意45亿镑收购曼联:去年曾现身世界杯看球
世界视点!最高补贴5000元!为什么中国规定男性一生只能捐精一次?
头条:微软Win10今日停止支持IE11:强制跳转Edge 网友担心银行拖后腿
报道:2022年游戏十强年度榜公布:《王者荣耀》《原神》等上榜
每日视点!草莓的“种子”为什么裸露在外呢?大有讲究
13代i9+RTX 4070加持!ROG幻16经典版 2023图赏
当前热门:1.html篇之《html基础入门》
天天微资讯!leetcode:求两数之和-easy
世界讯息:maven 工程pom依赖优化及常用命令
全球百事通!世界超6成新能源汽车来自中国 比亚迪2022年累计出口55916辆
视讯!29.9元充值100元话费?套路满满 18家经营者被约谈
腾讯:我们发现了ChatGPT的又一个短板
【天天新要闻】判断二叉树是否为平衡二叉树
全球播报:《分布式技术原理与算法解析》学习笔记Day10
环球今日报丨微信多开&防撤回工具再也不用担心好友撤回消息了
天天讯息:打开MASA Blazor的正确姿势4.2:Flex弹性布局
14nm+++再也不见 Intel告别最长寿的CPU工艺:9年不落伍
【全球快播报】利用反射和代理简单模拟mybatis实现简单的CRUD
世界微动态丨Docker参数命令大全详解
男子驾车路遇“雪狼” 回头瞬间笑喷:原是只哈士奇
【热闻】刘作虎宣布闭关打磨细节:OPPO Find X6就快来了
当前速读:苹果联合创始人称ChatGPT不懂人性:可能会犯下可怕错误
《流浪地球2》里的“天梯”真的能建成吗?
每日短讯:开学小测总结(下)
【报资讯】【DFS】飞行员兄弟
今日热闻!03.Python Dash网页开发:多页面网站制作