听说,现在小学生开始学编程了
不知道各位读者听到后是什么感觉
小编已经慌了...
回想当年还在上着小学的小编
一边梦想当科学家,一边在玩泥巴
而现在的小学生已经在学编程了
这要是他们长大后开始工作
干IT这行的我是不是该提前退休啊
???
于是,为了缓解焦虑
小编进行了一次街头采访
想看看大家在学编程和学艺术之间的选择
结果,采访的第一位对两者都不感兴趣
因为他有更远大的志向
“我只想有钱,住遍全世界所有酒店”
而有的家长希望自己的孩子学编程
他们想通过编程培养孩子的逻辑思维
尽早适应未来数字化信息社会
还有一些家长则表示
AI时代,真正的艺术只会显得更为宝贵
其背后的经历、个性、思想和
情感,AI无法替代
学编程还是学艺术?
双方的观点听起来都很有道理
到底哪一个才是最佳选择?
也许在下决定之前
我们还应该听听
孩子们自己的心声
点击我们的采访视频
了解孩子的真实想法
↓ ↓ ↓
点击二维码,直接参与讨论?
若不方便观看视频
我们这里划一下重点
第一种想法 喜欢编程!
▼学会编程可以帮我写作业(想得美~)
▼编程很有意思,想做个下棋的游戏
▼就是喜欢编藤!?
第二种想法 喜欢艺术!
▼觉得艺术更有趣,成果也更多一些
▼数学不好,所以不喜欢编程
▼钱财乃身外之物,艺术才是永恒的追求
看完孩子和家长们对编程和艺术的想法
其实我们忽略了一个背景
未来的人工智能时代必然会造成很多工种消失
这样的背景下,该让孩子学编程还是学艺术?
接下来小编又去采访了
戴尔易安信首席科学家李三平和
资深媒体人刘策
来听听专家的观点↓↓↓
各位同志们,乡亲们
看到这里
相信你已经迫不及待想要表达观点了!
快快扫描下方二维码
参加我们的“编程or艺术”全民大讨论吧
↓ ↓ ↓
人工智能时代
让孩子学编程还是学艺术?
你,怎么看呢?
立即扫码
发表观点赢“壕”礼
查看更多别人家的孩子”养成记”
征集绘画小天才
各位家长,我们还有活动为您准备。
暑期到啦,戴尔科技集团现开展“绘画小天才”活动,只要您的孩子年龄在16岁以下,并且热爱画画,在公众号“戴尔易安信解决方案”中找到此篇文章,并在下方留言(例如:我儿子14岁报名参加)参与活动报名。在7月5日之前,我们收到超过100条留言就会启动作品征集比赛。
一等奖:1名,奖励戴尔商用笔记本一台
二等奖:2名,奖励戴尔显示器一台
另有优秀奖共计10名,奖励戴尔高级无线鼠标一个
作品提交方式和参与时间:
参与本次活动的家长,当活动正式开始后,你们可在7月6日-7月31日期间,在公众号后台以图片的形式发送绘画作品给我们,并附上您的孩子的姓名。我们将在后续的内容中专门用一篇文章刊登收到的作品,并由粉丝投票,按照得票数来排名奖品的归属。
“艺术or编程?
元芳,众多知乎大V都在火热讨论中
赶紧点击下方链接去看看大伙儿都说了啥。”
http://net.brand-social.com/dell20190611/index.php
相关阅读推荐:从244到1173亿美元,回望戴尔这六年
了解更多数字化转型方案查看此链接:
https://www.dellemc-solution.com/home/index.html
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。