“2019凯风研读营”的版本间的差异

来自集智百科
跳转到: 导航搜索
尤亦庄
尤亦庄
第64行: 第64行:
  
 
* 参考资料
 
* 参考资料
:已缩进行
+
https://arxiv.org/pdf/1802.02840.pdf 
* https://arxiv.org/pdf/1802.02840.pdf
+
https://arxiv.org/pdf/1903.00804.pdf
   
+
https://arxiv.org/pdf/1903.00804.pdf
+
  
 
==== 苑明理 ====
 
==== 苑明理 ====

2019年4月18日 (四) 15:17的版本

目录

主题:网络、几何与机器学习

“网络、几何与机器学习”研读营是由集智俱乐部主办,凯风基金会资助的“复杂系统的信息物理研讨会”系列活动的第三期。我们计划将于2019年6月举行的为期5天的前沿文献研读、讨论的活动,主题范围涵盖:复杂网络、统计物理、量子物理与机器学习。其目的是为了从这些前沿科学领域获得新的研究灵感以及促进集智科学家成员之间的彼此互动、交流,从而孕育全新的科研思想。


背景

网络、几何与机器学习研讨会旨在把握当前前沿物理学与人工智能的发展趋势与本质。一方面,复杂网络模型可以用于理解时空的本源,也可以构建复杂的神经网络,模拟大脑的思维。另一方面,网络是几何学的进一步延伸与拓展,我们利用几何化的思路来抓住网络背后的简单原理,机器学习则是一种必要的技术。 传统的社会科学研究的一个主要目标是模仿自然科学把社会活动及其背后的原理运用数学进行定量化。近年来在科学界掀起的注重关系而非实体的思潮可能给这种社会科学-自然科学的交融的产生很大的影响,从而产生新的研究范式。这种范式注重数据分析和社会活动所依托的复杂网络,运用近年来在人工智能领域很有可能在不远的将来颠覆以往的社会科学的研究方式。因此,本研讨会的研讨结果将有可能对社会科学研究产生重要的作用。

本届研读营是对2016年第一届研读营的延伸讨论,主题涉及:张量网络、深度学习、消息传播算法等

参加人员

  • 张江,北京师范大学系统科学学院教授,集智俱乐部创始人、集智AI学园创始人,研究兴趣包括:复杂系统、集体注意力流、流网络、异速生长律等。
  • 张潘,中国科学院理论物理研究所副研究员,集智科学家,研究方向为统计物理与复杂系统,具体来说是用统计物理中的一些理论如自旋玻璃理论,副本对称破缺理论研究应用数学,网络和计算机科学中的一些问题。张潘的研究兴趣广泛,涉及物理,统计,网络和机器学习的很多方面并且在不断地拓宽自己的研究领域。
  • 尤亦庄,加州大学圣地亚哥分校助理教授,集智科学家,主要研究领域是量子多体物理,关注集体行为导致的演生现象和临界现象。对信息论(特别是量子信息),复杂系统,人工智能等领域也很感兴趣。
  • 吴令飞,芝加哥大学计算中心知识实验室博士后,集智俱乐部核心成员、集智科学家,社会科学背景但自我定位成物理学家。研究兴趣:注意力动力学和知识生产(Attention dynamics and knowledge production)。目前在研究的项目是科学家的跨学科注意力流动。
  • 苑明理,北京彩彻区明公司软件工程师,集智核心成员,数学系毕业、程序员生涯,年龄渐长,但对许多事情仍然充满好奇和困惑。因维基对知识工程发生兴趣,想去探寻知识大厦搭建之道。通过一些长期的思考,认为知识表示的几何化有助于揭示概念创生过程的秘密。
  • 刘知远,清华大学计算机系副教授,研究兴趣包括:自然语言处理、知识图谱、社会计算等。
  • 李林倬,芝加哥大学在读博士生,研究兴趣为使用词向量模型等计算方法研究公共知识生产与意识形态形成与演化。
  • 章彦博,亚利桑那州立大学复杂系统博士在读,研究方向为因果涌现、意识理论,以及化学合成路径与生命起源之关系。同时也对深度学习、复杂网络颇感兴趣。个人主页
  • 张章,北京师范大学系统科学学院科研助理,研究兴趣集中于深度学习和复杂网络的交叉领域,目前在进行使用机器学习方法进行网络重构等工作。个人主页
  • 崔浩川,北京师范大学系统科学学院博士在读。研究兴趣:复杂系统、知识社会学。目前在研究的项目是科学壁垒的形成与科学系统的演化。个人主页
  • 牟牧云,北京师范大学系统科学学院2019级直博生。研究方向为人工智能与复杂性科学,同时对认知科学兴趣浓厚。
  • 贾小双,中山大学社会学与人类学学院社会学在读博士。研究方向为计算社会科学,关心社会科学研究如何实现有监督学习(理论驱动)和无监督学习(数据驱动)相结合。对因果推论感兴趣,目前正在做的项目是如何通过表象发现事物的本质。个人主页
  • 高飞,北京师范大学系统科学学院在读硕士。研究兴趣:利用机器学习技术解决复杂网络上的优化问题。
  • 王力飞,中国科学院北京基因组研究所在读博士。研究方向为生物信息学,对系统科学,深度学习,信息论也感兴趣。目前正在做的项目是利用深度学习的模型来处理单细胞数据。
  • 刘金国,中国科学院物理研究所博士后,研究方向为量子算法与高性能计算。最近痴迷于用Julia语言实现高性能张量网络计算,张量网络图表示论,张量网络的GPU加速,以及在此之上的自动微分。个人主页

基本信息

  • 时间:2019年6月7日-6月12日
  • 地点:大理剑川沙溪

日程安排

条目 第一天 第二天 第三天 第四天 第五天
初步计划
主讲人
上午
下午


说明

  • 先按照负责人制把基本的活动安排分配下去,每位负责人负责自己的时间段,可以自己讲,也可以邀请与会者来讲

详细内容安排

尤亦庄

  • 机器学习与重整化

这里填入要讲的主题

  • 参考资料

https://arxiv.org/pdf/1802.02840.pdfhttps://arxiv.org/pdf/1903.00804.pdf;

苑明理

  • 主题

这里填入要讲的主题

  • 参考资料

这里放上参考资料和文献

吴令飞

  • 主题

这里填入要讲的主题

  • 参考资料

这里放上参考资料和文献


张潘

  • 主题

这里填入要讲的主题

  • 参考资料

这里放上参考资料和文献

刘知远

  • 人工智能视角下的语言与知识

近年来,深度学习技术席卷自然语言处理(NLP)各大领域。作为典型的数据驱动方法,深度学习面临可解释性不强等难题,如何将人类积累的大量语言知识和世界知识引入深度学习模型,是改进NLP深度学习模型性能的重要方向,同时也面临很多挑战。本报告将介绍知识计算在语言理解中的最新进展,检讨目前技术方案在知识类型覆盖度、知识计算效率等方面存在的局限性,展望未来亟待解决的挑战性难题。

  • 参考资料

- Bordes, Antoine, et al. Translating embeddings for modeling multi-relational data. NIPS 2013.

- Zhou, Jie, et al. Graph neural networks: a review of methods and applications. arXiv 2018.

张江

  • Learning Discrete Operators by Gradient Back Propagation

The triumph of deep learning technology has enabled us to learn very complex functions in various backgrounds via image recognition to natural language processing. The platforms like Tensorflow and pytorch further accelerate the progress of deep learning programming by automating the computation of gradient on complex structures. However, the requirement of the differentialability blocks the wide applications of automatic gradient computation because non-differential operators, such as sampling, permutation, selection, indexing, and so forth widely exists in programs. Although the conventional reinforcement learning algorithm like policy gradient my alleviates the suffering of non-differentialability in some sense, the slow speed of computation and the requirement of complicated skills made it difficult to apply. While, recently, researchers have invented several tricks like gumbel softmax, sinkhorn gumbel, and soft indexing to tackle the problem of non-differentialability, by carefully devising the computation process, we can do sampling, permutation, and indexing various objects with gradients. In this talk, I would like to introduce these methods and some applications.

  • 参考资料

- Categorical Reparameterization with Gumbel-Softmax, arXiv:1611.01144 - LEARNING LATENT PERMUTATIONS WITH GUMBEL- SINKHORN NETWORKS, arXiv:1802.08665v1 - Learning sparse transformations through backpropagation, arXiv:1810.09184v1 -

章彦博

  • 哲学僵尸与意识起源
  • 边界源于何处?(如果有时间可以讲讲)
  • 参考资料

- Oizumi, Masafumi, Larissa Albantakis, and Giulio Tononi. “From the Phenomenology to the Mechanisms of Consciousness: Integrated Information Theory 3.0.” Edited by Olaf Sporns. PLoS Computational Biology 10, no. 5 (May 8, 2014): e1003588. https://doi.org/10.1371/journal.pcbi.1003588.



主办方介绍

集智俱乐部

集智俱乐部,英文名:Swarma Club,成立于 2003 年,是一个从事学术研究、享受科学乐趣的探索者的团体,也是国内最早的研究人工智能、复杂系统的科学社区。它倡导以平等开放的态度、科学实证的精神,进行跨学科的研究与交流,力图搭建一个中国的 “ 没有围墙的研究所 ”。


凯风基金会

凯风公益基金会于2007年3月设立,是国家民政部主管的非公募公益基金会。也是首批由企业发起、国家民政部批准设立,并由国家民政部作为上级主管部门的公益基金会。凯风公益基金会主要通过机构合作方式,对在学术研究、政策研究、教育和公益实践方面获得重要成果、具备实力和潜力的学术精英和公益精英,进行资助和奖励,进而达到提升公共福利、增加公众利益、传播公益思想的目的。凯风公益基金会的战略合作伙伴包括国内外顶尖的综合性大学和研究机构、专业艺术院校、国内外一流的NGO。

个人工具
名字空间
操作
导航
工具箱