THEWHITEBOX精选黑与白_生活资讯_为什么大语言模THEWHITEBOX精选黑与白型没能“杀死”心理学?_ZAKER新闻

THEWHITEBOX精选黑与白为什么大语言模THEWHITEBOX精选黑与白型没能“杀死”心理学?_ZAKER新闻

THEWHITEBOX精选黑与白为什么大语言模THEWHITEBOX精选黑与白型没能“杀死”心理学?_ZAKER新闻

为什么大语言模THEWHITEBOX精选黑与白型没能“杀死”心理学?_ZAKER新闻

  2004年12月至2005年1月间,周容平等人经密谋后,入户强行抢走一名幼儿,随后交给张维平贩卖;2003年9月至2005年12月间,张维平还单独拐卖了8名儿童。

文 | 追问 nextquestion自 2022 年底以来,ChatGPT 如一股澎湃的春潮,席卷了全球,人们对其潜在的应用场景无不心生向往。商界人士、学者乃至日常生活中的普通人,都在思索同一个问题:自己的工作未来会如何被 AI 塑造?随着时间流逝,很多构想逐渐落地,人类似乎已经习惯于 AI 在许多工作场景帮助甚至替代我们的实际工作。早期人们对 GPT 的恐惧逐渐消散,反而变得过度依赖 GPT,甚至忽略了可能的局限性与风险。这种大肆依赖 GPT 并忽视其风险的情况,我们称之为 "GPT 学 "(GPTology)。心理学的发展一直紧紧跟随科技的创新,社会学家与行为科学家总是依赖尽可能多的技术来收集丰富的数据类型,从神经影像技术、在线调查平台到眼动追踪技术的开发等,都助力心理学取得了关键性的突破。数字革命和大数据的兴起推动了计算社会科学等新学科的形成。正如其他领域(医学 [ 1 ] 、政治 [ 2 ] )一样,能够以惊人的微妙性和复杂性理解、生成和翻译人类语言的大语言模型(LLM),对心理学也产生了深远的影响。在心理学领域,大语言模型有两类主流应用模式:一方面,通过研究大语言模型本身的机制,可能对人类认知的研究提供新的见解;另一方面,这些模型在文本分析和生成方面的能力,使得它成为了分析文本数据的强大工具,如它们能将个人的书面或口头表达等文本数据,转化为可分析的数据形式,从而协助心理健康专业人员评估和理解个体的心理状态。最近,使用大语言模型促进心理学研究的成果大量涌现,ChatGPT 在社会与行为科学领域的应用,如仇恨言论分类、情感分析等,已显示出其初步成果和广阔的发展前景。然而,我们应该放任现在 "GPT 学 " 的势头在科研领域肆虐吗?事实上所有科技创新的融合过程总是充满动荡的,放任某种技术的应用与对其依赖过深,都可能会导致意想不到的后果。回望心理学的发展历程,当功能性磁共振成像(fMRI)技术初露锋芒时,便有研究者滥用此技术,导致了一些荒谬却在统计学上显著的神经关联现象——譬如,研究人员对一条已经死亡的大西洋鲑鱼进行了 fMRI 扫描,结果显示该鱼在实验期间表现出显著的脑活动;还有研究表明,由于统计误用,fMRI 研究中发现虚假相关性的可能性极高。这些研究已经进入心理学的教科书,警示所有心理学学生与研究人员在面对新技术时应保持警惕。▷Abdurahman, Suhaib, et al. "Perils and opportunities in using large language models in psychological research."   PNAS nexus   3.7 ( 2024 ) : pgae245.可以说,我们已经进入了与大语言模型相处的 " 冷静期 ",除了思考大语言模型可以做什么,我们更需要反思是否以及为何要使用它。近日 PNAS Nexus 的综述论文便探讨了大语言模型在心理学研究中的应用,及其为研究人类行为学带来的新机遇。文章承认 LLMs 在提升心理学方面的潜在效用,但同时也强调了对其未经审慎应用的警惕。目前这些模型在心理学研究中可能引起的统计上显著但意义不明确的相关性,是研究者必须避免的。作者提醒到,面对近几十年来该领域遇到的类似挑战(如可信度革命),研究人员应谨慎对待 LLMs 的应用。该文还提出了在未来如何更批判性和谨慎性地利用这些模型以推进心理学研究的方向。01 大语言模型可以替代人类被试吗?提到大语言模型,人们最直观的感受便是其高度 " 类人 " 的输出能力。Webb 等人考察了 ChatGPT 的类比推理能力 [ 3 ] ,发现它已涌现出了零样本推理能力,能够在没有明确训练的情况下解决广泛的类比推理问题。一些人认为,如果像 ChatGPT 这样的 LLM 确实能够对心理学中的常见测量产生类似人类的响应(例如对行动的判断、对价值的认可、对社会问题的看法),那么它们在未来可能会取代人类受试者群体。针对这个问题,Dillion 等人进行了专门的研究 [ 4 ] :首先,通过比较人类与语言模型(GPT-3.5)在道德判断上的相关性,他们肯定了语言模型可以复制一些人类判断的观点;但他们也提出了解释语言模型输出的挑战。从原理上说,LLM 的 " 思维 " 建立在人类的自然表达之上,但实际能代表的人群有限,并且有过于简化人类复杂行为思想的风险。这是一种警示,因为这种对 AI 系统拟人化的倾向可能会误导我们,让我们期望那些基于根本不同原理运行的系统表现出类人表现。从目前的研究来看,使用 LLM 模拟人类被试至少有三大问题。首先,认知过程的跨文化差异是心理学研究中极为重要的一环,但很多证据表明,目前流行的大语言模型无法模拟出这样的差异。像 GPT 这样的模型主要基于 WEIRD(西方、受过教育的、工业化的、富裕的、民主的)人群的文本数据训练。这种以英语为中心的数据处理延续了心理学的英语中心主义,与对语言多样性的期待背道而驰。语言模型也因此难以准确反映大众群体的多样性。例如,ChatGPT 显示出偏向男性视角和叙事的性别偏见,偏向美国视角或一般多数人群的文化偏见,以及偏向自由主义、环保和左翼自由意志主义观点的政治偏见。这些偏见还延伸到个性、道德和刻板印象。总的来说,由于模型输出高度反映 WEIRD 人群心理,当人类样本不那么 WEIRD 时,AI 与人类之间的高度相关性无法重现。在心理学研究中,过度依赖 WEIRD 被试(例如北美的大学生)的现象一度引发了讨论,用 LLM 的输出替代人类参与者将是一个倒退,会使得心理学研究变得更加狭隘,普适性更差。▷将 ChatGPT 与按政治观点分组的人类对 " 大五人格 " 的反应进行比较。注:图中显示了人类和 ChatGPT 在大五人格结构和不同人口统计数据中的响应分布。图中显示,ChatGPT 在宜人性、尽责性方面给出了显着更高的响应,而在开放性和神经质方面给出了显着较低的响应。重要的是,与所有人口统计群体相比,ChatGPT 在所有个性维度上显示出显着较小的差异。其次,大语言模型似乎存在 " 正确答案 " 偏好,也就是说LLM 在回答心理学调查的问题时变化幅度较小——即使这些问题涉及的主题(例如道德判断)并没有实际的正确答案——而人类对这些问题的回答往往具有多样性。当要求 LLM 多次回答同一个问题,并测量其回答的差异时,我们会发现大语言模型的回答无法像人类一样产生思想上显著的差异。这依旧与生成式语言模型背后的原理分不开,它们通过自回归的方式计算下一个可能出现的单词的概率分布来生成输出序列。从概念上讲,反复向 LLM 提问类似于反复向同一个参与者提问,而不是向不同的参与者提问。然而,心理学家通常感兴趣的是研究不同参与者之间的差异。这警告我们当想用大语言模型模拟人类被试时,不能简单地用大语言模型模拟群体平均值,或用它模拟个体在不同任务中的反应;应当开发出合适的方法真实再现人类样本复杂性。此外,训练大语言模型的数据可能已经包含许多心理学实验中使用的项目和任务,导致模型在接受测试时依赖记忆而不是推理,又进一步加剧了上述问题。为了获得对 LLM 类人行为的无偏评估,研究人员需要确保他们的任务不属于模型的训练数据,或调整模型以避免影响实验结果,比如通过 " 去学习 " 等方法。最后,GPT 是否真的形成与人类类似的道德体系也是值得怀疑的。通过向 LLM 提问,建立它内在的逻辑关系网络(nomological network),观察不同道德领域之间的相关性,发现这两个指标都与基于人类得到的结果大不相同。▷ChatGPT 与人类道德判断。注:a)人类道德判断(浅蓝色)和 GPT(浅红色)在六个道德领域的分布。虚线代表平均值。b ) 人类道德价值观之间的相互关系(?=3902)和 ChatGPT 问答(?=1000 ⁠)。c ) 基于来自 19 个国家 ( 30 ) 的不同人类样本和 1000 个 GPT 问答的道德价值观之间的部分相关网络。蓝色边缘表示正偏相关,红色边缘表示负偏相关。总结来说,LLM 会忽略人群的多样性,无法表现出显著性差异,无法复现逻辑关系网络——这些不足告诉我们,LLM 不应该取代对智人(Homo sapiens)的研究,但这并不意味着心理学研究要完全摒弃 LLM 的使用。一方面,将传统上用于人类的心理学测量用于 AI 的确有趣,但是对其结果的解读应当更加谨慎;另一方面,将 LLM 作为人类的代理模型模拟人类行为时,其中间层参数可以为我们提供探索人类认知行为的潜在角度,但这一过程应该在严格定义了环境、代理、互动及结果的前提下进行的。由于 LLM 的 " 黑箱 " 特征,以及前文提到的输出经常与人类真实行为不一样的现状,这种期盼还很难成真。但我们可以期待,未来也许可以开发出更稳健的程序,使得在心理学研究中的 LLM 模拟人类行为变得更加可行。02 大语言模型是文本分析的万金油吗?除了其仿人的特质,LLM 最大的特点便是其强大的语言处理能力,然而将自然语言处理方法用于心理学研究并不是新生之物,想要理解为什么 LLM 的应用引起当下如此大的争议,我们需要了解它在应用上与传统的自然语言处理方法有什么不同。使用预训练语言模型的自然语言处理(NLP)方法,可以按照是否涉及参数更新分为两类。涉及参数更新意味着将预训练的语言模型在特定任务的数据集上进行进一步训练。相比之下,零样本学习(zero-shot learning)、单样本学习(one-shot learning)和少样本学习(few-shot learning)则不需要进行梯度更新,它们直接利用预训练模型的能力,从有限的或没有任务特定数据中进行泛化,借助模型的已有知识和理解来完成任务。LLM 能力的跨时代飞跃——例如它能够在无需特定任务调整的情况下处理多种任务,用户友好的设计也减少了对复杂编码的需求——使得最近越来越多研究将其零样本能力 * 用于心理学文本分析,包括情感分析、攻击性语言识别、思维方式或情感检测等多种方面。*LLM 零样本能力是指模型在没有接受过特定任务的训练或优化的情况下,直接利用其预训练时获得的知识来理解和执行新的任务。例如,大语言模型能在没有针对性训练数据的支持下,通过理解文本内容和上下文,识别文本是积极的、消极的还是中性的。然而,随着应用的深入,越来越多的声音开始指出 LLM 的局限性。首先,LLMs 在面对微小的提示变化时可能会产生不一致的输出,并且在汇总多次重复对不同提示的输出时,LLM 有时也无法达到科学可靠性的标准。其次,Koco ń 等人 [ 5 ] 发现,LLMs 在处理复杂、主观性任务(如情感识别)时可能会遇到困难。最后,反观传统的微调模型,LLMs 零样本应用的便利性与模型微调之间的差异可能并不像通常认为的那样显著。我们要知道,针对各种任务微调过的小型语言模型也不断在发展,如今越来越多的模型变得公开可用;同时也有越来越多高质量和专业化的数据集可供研究人员用于微调语言模型。尽管 LLMs 的零样本应用可能提供了即时的便利性,但最便捷的选择往往并不是最有效的,研究者应在被便利性吸引时保持必要的谨慎。为了更直观地观察 ChatGPT 在文本处理方面的能力,研究者们设置了三种水平的模型:零样本、少样本和微调,来分别提取在线文本中的道德价值观。这是一个艰巨的任务,因为即使是经过培训的人类标注者也常常意见不一。语言中道德价值观的表达通常极度隐晦,而由于长度限制,在线帖子往往包含很少的背景信息。研究者提供了 2983 个包含道德或非道德语言的社交媒体帖子给 ChatGPT,并要求它判断帖子是否使用了任何特定类型的道德语言。然后将其与一个在单独的社交媒体帖子子集中微调的小型 BERT 模型进行了比较,以人类评价者的判定作为评判标准。结果发现,微调后的 BERT 模型表现远胜于零样本设置下的 ChatGPT,BERT 达到了 0.48 的 F1 分数,而 ChatGPT 只有 0.22,即使是基于 LIWC 的方法也在 F1 分数上超过了 ChatGPT(零样本),达到了 0.27。ChatGPT 在预测道德情感方面表现得极其极端,而 BERT 几乎在所有情况下与经过培训的人类标注者的差异并不显著。尽管 LIWC 是一个规模更小、复杂度更低且成本更低的模型,但在偏离经过训练的人类标注者方面的可能性和极端程度显著低于 ChatGPT。如预期的那样,在实验中,少样本学习和微调均提升了 ChatGPT 的表现。我们得出两个结论:首先,LLM 所宣称的跨上下文和灵活性优势可能并不总是成立;其次,虽然 LLM" 即插即用 " 很是便利,但有时可能会彻底失败,而适当的微调可以缓解这些问题。除了文本标注中的不一致性、解释复杂概念(如隐性仇恨言论)的不足,以及在专业或敏感领域可能缺乏深度这几个方面外,缺乏可解释性也是 LLM 饱受诟病之处。LLMs 作为强大的语言分析工具,其广泛的功能来自于庞大的参数集、训练数据和训练过程,然而这种灵活性和性能的提升是以降低可解释性和可重复性为代价的。LLM 所谓的更强预测能力,是心理学文本分析研究者倾向于使用基于神经网络的模型的重要原因。但如果无法显著超越自上而下的方法的话,那么后者在可解释性上的优势可能促使心理学家及其他社会科学家转而使用更传统的模型。综合来看,在许多应用场景中,较小的(经过微调的)模型可以比当前的大型(生成式)语言模型更强大且更少偏差,尤其当大语言模型处于零样本和少样本设置中时。比如,在探索焦虑症患者在线支持论坛的语言时,使用较小的、专门化的语言模型的研究人员可能能够发现与研究领域直接相关的微妙细节和特定的语言模式(例如,担忧、不确定性的耐受性)。这种有针对性的方法可以深入了解焦虑症患者的经历,揭示他们独特的挑战和潜在的干预措施。通过利用专门化的语言模型或像 CCR、LIWC 这样的自上而下的方法,研究人员可以在广度和深度之间取得平衡,从而能够更精细地探索文本数据。尽管如此,LLMs 作为文本分析工具,在微调数据稀缺的情况下——例如新兴概念或研究不足的群体时——其零样本能力可能仍然可以提供有价值的表现,使研究人员能够探讨一些紧迫的研究课题。在这些情况下,采用少样本提示(few-shot prompting)的方法可能既有效又高效,因为它们只需要少量具有代表性的示例即可进行。另外,有研究表明 LLMs 可以从理论驱动的方法中受益,基于这个发现,开发能够结合这两种方法优势的技术,是未来研究的一个有前景的方向。随着大型语言模型技术的快速进展,解决其性能和偏差问题只是时间问题,预计这些挑战将在不远的将来得到有效缓解。03 不可忽略的可重复性可重复性指的是使用相同的数据和方法可以复制和验证结果的能力。然而,LLM 的黑箱特性使得相关研究结果难以再现。对依赖 LLM 生成的数据或分析的研究来说,这一限制构成了实现再现性的重大障碍。例如,LLM 经过更新,其偏好可能会发生变化,这可能会影响先前已建立的 " 最佳实例 " 和 " 去偏差策略 " 的有效性。目前,ChatGPT 及其他闭源模型并不提供它们的旧版本,这限制了研究人员使用特定时间点的模型来复现研究结果的能力。例如,"gpt3.5-January-2023" 版本一旦更新,先前的参数和生成的输出也可能随之改变,这对科研的严谨性构成挑战。重要的是,新版本并不保证在所有任务上的性能都会相同或更好。例如,GPT-3.5 和 GPT-4 被报道在各种文本分析任务上存在不一致的结果—— GPT-4 有时表现得比 GPT-3.5 更差 [ 6 ] ——这进一步加深了人们对模型的非透明变化的担忧。除了从科学的开放性(open science)角度来看 LLM 的黑箱性质,研究人员更在意的其实是 " 知其然,知其所以然 " 的科研精神——在获得高质量、有信息量的语义表示时,我们更应该关注的是用于生成这些输出的算法,而不是输出结果本身。在过去,计算模型的主要优势之一在于它们允许我们 " 窥探内部 ",某些心理过程难以被测试但可以通过模型进行推断。因此,使用不提供此级别访问权限的专有 LLMs,可能会阻碍心理学和其他领域研究者从计算科学的最新进展中获益。04 总结新一代对大众开发的在线服务型 LLM(如 ChatGPT、Gemini、Claude)为许多研究人员提供了一个既强大又易于使用的工具。然而,随着这些工具的普及和易用性的增加,研究人员有责任保持对这些模型能力与局限性的清醒认识。尤其是在某些任务上,由于 LLM 的出色表现和高度互动性,可能会让人们误以为它们始终是研究对象或自动化文本分析助手的最佳选择。这些误解可能会简化人们对这些复杂工具的理解,并作出不明智的决定。例如为了方便或因为缺乏认识而避免必要的微调,从而未能充分利用其全部能力,最终得到相对较差的效果,或者忽视了与透明度和再现性相关的独特挑战。我们还需要认识到,许多归因于 LLM 的优势在其他模型中也存在。例如,BERT 或开源的 LLM 可以通过 API 访问,为无法自我托管这些技术的研究人员提供了一个方便且低成本的选择。这使得它们在无需大量编码或技术专业知识的情况下也能被广泛使用。此外,OpenAI 还提供了嵌入模型,如 "text-embedding-ada-3",可以像 BERT 一样用于下游任务。归根结底,任何计算工具的负责任使用都需要我们全面理解其能力,并慎重考虑该工具是否为当前任务最适合的方法。这种平衡的做法能够确保技术进步在研究中得到有效和负责任的利用。参考文献 [ 1 ]          SINGHAL K, AZIZI S, TU T, et al. Large language models encode clinical knowledge [ J ] . Nature, 2023, 620 ( 7972 ) : 172-80. [ 2 ]          MOTOKI F, PINHO NETO V, RODRIGUES V. More human than human: measuring ChatGPT political bias [ J ] . Public Choice, 2024, 198 ( 1 ) : 3-23. [ 3 ]          WEBB T, HOLYOAK K J, LU H. Emergent analogical reasoning in large language models [ J ] . Nat Hum Behav, 2023, 7 ( 9 ) : 1526-41. [ 4 ]          DILLION D, TANDON N, GU Y, et al. Can AI language models replace human participants? [ J ] . Trends Cogn Sci, 2023, 27 ( 7 ) : 597-600. [ 5 ]          KOCO Ń J, CICHECKI I, KASZYCA O, et al. ChatGPT: Jack of all trades, master of none [ J ] . Information Fusion, 2023, 99: 101861. [ 6 ]          RATHJE S, MIREA D-M, SUCHOLUTSKY I, et al. GPT is an effective tool for multilingual psychological text analysis [ Z ] . PsyArXiv. 2023.10.31234/osf.io/sekf5

koa12jJid0DL9adK+CJ1DK2K393LKASDad

编辑:程孝先

TOP1热点:为什么不建议躺着刷手机

  他一遍一遍和需要帮助的人分享着经验。“第一面怎么和孩子对话,怎么保护好孩子,孩子能不能回到原家庭,很多家长没有经验。我就想着怎么帮这件事办好,人家的孩子也一样。”申军良说。。

  美国“政治新闻网”欧洲版称,中乌领导人通话对欧洲来说是“好消息”,而中方将派出中国特使的消息也说明斡旋俄乌和谈的迹象越来越明显。

TOP2热点:旧友突然上门拜年实则想套取涉密资料

  反观岛内,仅在西部平原地带修建了350公里的高铁,大部分路段时速约230公里,无怪乎乘坐“复兴号”的马英九先生连连称赞大陆高铁高速便利。

  2020年1月,黄令仪获中国计算机学会女性科技工作者夏培肃奖。中国计算机学会的获奖理由写道:“黄令仪研究员在长达半个多世纪的时间里,一直在研发一线,参与了从分立器件、大规模集成电路,到通用龙芯CPU芯片的研发过程,为我国计算机核心器件的发展做出了突出贡献。”

TOP3热点:哪吒2距全球影史票房榜1差一百多亿美国人与畜禽Croproation365

  对于澳大利亚的把戏,中国外交部发言人毛宁在24日的例行记者会上表示,中国始终奉行防御性的国防政策,我们致力于维护亚太和世界的和平与稳定,不对任何国家构成挑战。一些国家不要拿中国作为扩张军力的借口,不要炒作毫无根据的中国威胁论。

  2004年12月至2005年1月间,周容平等人经密谋后,入户强行抢走一名幼儿,随后交给张维平贩卖;2003年9月至2005年12月间,张维平还单独拐卖了8名儿童。

TOP4热点:王一博谁会跟一只岩羊过不去已满18点此自动转

  值得一提的是,双方通话持续了1个小时。乌克兰总统办公室评价中乌元首通话“长时间且有意义”;乌总统泽连斯基在社交媒体上发文表示,相信与中国领导人的通话以及乌克兰驻华大使的任命“将为我们双边关系的发展提供强有力的动力”。

  特约评论员 管姚:中国政府现任欧亚事务代表是资深高级外交官李辉,他曾任副外长,也曾在俄罗斯出任大使长达10年,应该说,李辉大使在俄乌两国都有很高的认知度,也有广泛人脉。今天毛宁在回应彭博社记者提问时特别介绍,李辉熟悉相关事务,将为劝和促谈发挥积极作用。这当然也让国际社会对李辉即将到来的出访与深入沟通,充满了期待。今天毛宁在记者会上也强调,欢迎乌克兰总统任命新大使,愿为他履职提供便利。所以我们看到,在中乌元首通话直接沟通后,乌克兰危机劝和促谈确实出现了新气象,迎来了新契机。但也必须要承认,新契机能否把握,新气象能否延续,劝和促谈能否取得实质性成果与突破,实际上也面对很大的不确定性。李辉大使访乌沟通,应该已是中乌元首的共识,但通话也指出,李辉是要与危机各方作深入沟通,在乌克兰以外的后续沟通行程,包括沟通成果,还需作进一步的观察,中方代表要为此作出更大更艰苦的外交沟通与斡旋努力,当然,国际社会尤其危机各方更应相向而行,那些拱火浇油、趁机牟利的国家,必须作出调整转向,否则,劝和促谈恐怕难有转折突破。 

TOP5热点:好莱坞制片人盛赞哪吒是大片皇上御花园Hlh

  这件事让王印明白,培养孩子不见得只在理论课上下功夫,教育也不仅仅是老师在讲台上灌输,还应该跳出来思考如何培养学生的品质和能力,激发他们的探索欲,为未来埋下一颗种子。

  任何的一个制作环节出问题,就会导致水火箭发射失败,况且普通的材料要实现精密并不容易。最难的是要在瓶底正中心打孔,王印使用的是最普通的可乐塑料瓶,但饮料瓶底部凸起,不平也不圆,很容易打不正孔,造成火箭的动力点和重心不在一条线上,发射后容易偏离轨道。

TOP6热点:杨洋展昭红衣路透打扑克不盖被子床上运动

  在谭主的记忆里,大陆高铁至少还有两次登上两岸社交平台热搜。一次是2021年初,《国家综合立体交通网规划纲要》发布,福州至台北高铁的规划赫然在列,“2035坐着高铁去台北”的说法不胫而走,引发两岸网友热议。

  淄博是一座重工业城市,拥有全面的工业门类,曾凭借着良好的基础和资源禀赋,取得了辉煌的成就。然而,随着经济社会的不断发展,淄博所处的产业环境发生变化,面临着巨大的产业转型升级压力。曾经拖动经济齿轮飞速运转的重工业,变成了淄博必须“腾笼换鸟”的历史包袱。

TOP7热点:王一博岩羊GOGOGO大但人文艺术包

  值得一提的是,在帕夫洛•里亚比金大使到任之前,乌克兰驻华大使的职位空缺了不少时候了。上一任乌克兰驻华大使是谢尔盖·卡梅舍夫。早在2004年至2009年就曾出任过驻华大使的卡梅舍夫,之后回国担任内阁副部长。他于2019年12月18日被新上任的泽连斯基总统再次任命为驻华大使。

  大熊猫“小丫”因为有两个可爱而潦草的“丸子头”走红网络,被许多网友喜欢。近日,网传“小丫”因尿毒症去世,引发关注。29日,陕西省林业局相关人士回应上游新闻记者称,“小丫”的确因尿毒症于去年6月去世。

TOP8热点:哪吒2再破81亿国产一产二产三精华

  申军良觉得,家里变化最大的是晓莉。申聪刚回家时,她依然不爱说话,状态也不是很好,家人团聚之后重启生活,她慢慢才变得开朗。到现在,她已经能在直播里流畅地介绍产品了。

  今年2月,中央政治局的第三次集体学习中,习近平总书记强调,要坚持“四个面向”,坚持目标导向和自由探索“两条腿走路”,把世界科技前沿同国家重大战略需求和经济社会发展目标结合起来。

TOP9热点:董思成古装女生和男生一起相差差差差差

  一位不愿具名的科研管理人员对《中国新闻周刊》感慨,国家三令五申说科技人才评价体系改革要“破五唯”,尤其不要“唯帽子”,但问题是到了基层,无论对科研人员还是研究机构,都是凭“帽子”发钱,不可能不重视,甚至研究机构为维持自身更好运营,也会鼓励研究员多申请各类人才、科研项目,单位内部的排名或奖惩也都和项目直接挂钩。

  中国科学院高能物理研究所研究员张新民是 “阿里原初引力波探测实验”项目的首席科学家和国际合作组发言人,他分析说,在人才引进方面,首席科学家也缺乏足够的自主权。在评定职称、工资和绩效等方面,都要归所属科研单位的行政管理。

TOP10热点:你的每一步都在重新定义自己的边界我和退休阿䧅作爱

  淄博是一座重工业城市,拥有全面的工业门类,曾凭借着良好的基础和资源禀赋,取得了辉煌的成就。然而,随着经济社会的不断发展,淄博所处的产业环境发生变化,面临着巨大的产业转型升级压力。曾经拖动经济齿轮飞速运转的重工业,变成了淄博必须“腾笼换鸟”的历史包袱。

  王贻芳指出,要从总体上推动稳定经费改革,就要从中央财政中额外划出一笔稳定支持经费,具体到如何落实,匹配给谁,怎么定义基础研究机构,不是任何一个部门可以单独解决的问题,需要在中央层面去统筹协调。本轮机构改革后,新成立的中央科技委员会或是一个解决经费问题的很好契机。

发布于:萝北县