2020集智凱風研讀營

出自集智百科
跳轉到: 導覽搜尋

目錄

主題:面向複雜系統的人工智慧

「集智凱風研讀營」 項目是由凱風研讀營資助,集智俱樂部發起的學術交流活動。通過特定學術主題,匯聚術業有專攻但又視野廣闊的青年學者,舉行 5-7 天的封閉式交流營活動。通過深度研讀討論前沿科學研究,共同界定和審視一些新的問題,使得在當前學術體制下,實現跨文化、跨學科、跨領域的學術創新,形成真正具有原創思想能力的學術共同體。

本次研讀營是第5期。

背景

面向複雜系統的人工智研讀營旨在實現對複雜系統的自動建模,從「複雜系統」的理論出發,藉助人工智慧的方法和技術,揭開人工智慧的黑箱,突破現有人工智慧可解釋性瓶頸,推動通用、可解釋性強的系統在相關應用領域的落地並解決實際問題。

在人工智慧、深度學習的助力下,複雜系統建模已經步入了自動化的階段。根據複雜系統的運行數據(時間序列),深度學習系統即可以模擬系統的運行、預測系統的未來狀態。隨著圖網路、神經微分方程(Neural ODE)以及標準化流(Normalization Flow)等技術的發展,這方面的研究如今呈現出了井噴的模式。人們不僅能夠精準地構建複雜系統的動力學模型,而且還能在帶有雜訊、帶有隱含節點、隱含變數,以及小數據的系統上自動構建模型,重構出網路結構。

另一方面,隨著因果推斷技術的發展成熟,越來越多的能夠自動從數據中提煉出因果關係,並具備一定可解釋性能力的深度學習模型逐漸被提出。而近來這兩大方向的發展正在逐漸呈現新的交叉、合并之勢。通過引入圖結構學習技術,深度學習演算法不僅可以精準地預測系統動力學,還能夠自動提煉因果結構,甚至能夠與系統進行互動和干預,還能逐漸攀爬 Judea Pearl 所說的三階因果之梯。

基本安排

考慮到疫情的影響,暫定2020年8月24日-8月27日舉辦線上的研討會,再針對國內的學者另擇時間,進行線下的研討。

日程安排

主持人 主題負責人 主題分享人 時間安排 主題 簡介
1天 張潘 尤亦庄 尤亦庄 機器學習在物理學建模中的應用
扈鴻業 重整化群流模型以及其在物理和自然圖像處理上的應用
黃金龍 Quantum Generative Model by Elementary Tensor Gadgets
羅秀哲 量子線路的編譯和化簡
1天 張江 張潘 張潘 8:30 - 9:15 張量網路基礎與縮並
程嵩 9:30 - 10:15 張量網路與機器學習
王磊 10:30 - 11:15 張量網路與組合優化
11:15 - 12:00 自由討論
肖達 transformer語言模型的注意力分析
苑明理 算系統:加乘混合刻畫演化問題
傅渥成 Dimensional Reduction in the Evolution: Functional Sensitivity and Mutational Robustness of Proteins
1天 尤亦庄 吳令飛 吳令飛 網路嵌入以及在科學學(science of science)以及工作的未來(future of work)當中的應用
林意靈 Measuring skill dependency with Word Embedding
崔浩川 using word embedding to trace the Frontier of Science
章彥博 Dropout provides a simple method for spaese coding of word embedding
徐繪敏 innovation comes from knowledge integration within people rather than labor division between people
童荻 Measuring Job Content Transformation with Word Embedding
1天 吳令飛 複雜系統自動建模 張江 複雜系統自動建模概述與展望
臧承熙 Neural Dynamics on Complex Networks
張章 基於深度學習的計算經濟:一種新的金融市場建模方法
王碩 複雜網路自動建模在大氣污染中的應用
許菁 基於LSTM的企業財務發展動力學預測
黃金龍 Embedding Differential Equation Solvers into Neural Network in Julia
章彥博 Invariant GAN: 複雜系統自動簡化建模
因果推理 況琨 causal inference and stable learning
若城 The Connections between Causal Inference and Machine Learning
李奉治 Do-演算相關演算法綜述與實現
龔鶴揚

基本原則

  • 在研讀營正式舉辦期間,所有參營學者和老師都必須要全程參與線上討論。


基本信息

  • 時間:北京時間8月24日上午8:30-12:00,晚上8:30-12:00
  • 地點:Zoom房間(群內公布)

研討主題

建議這次研讀營主題定為:「面向複雜系統的人工智慧」

分主題:

  • 複雜系統自動建模
  • 因果推斷方法
  • 技能、職業與社會分工的計算社會學
  • 人工智慧如何取代物理學家

...

複雜系統的自動建模

  • Alvaro Sanchez-Gonzalez,Nicolas Heess,Jost Tobias Springenberg.et al.: Graph networks as learnable physics engines for inference and control ,arxiv,2018

這篇文章是用圖網路方法進行多體系統動力學學習以及控制的經典論文

  • Thomas Kipf,Ethan Fetaya,Kuan-Chieh Wang.et al.: Neural Relational Inference for Interacting Systems ,arXiv:1802.04687, 2018.

這篇文章首次將顯示地學習網路結構與系統的動力學規則結合在了一起。

  • Seungwoong Ha,Hawoong Jeong: Towards Automated Statistical Physics : Data-driven Modeling of Complex Systems with Deep Learning ,arxiv,2020

該篇將NLP中的Transformer模型中的自注意力機制應用到了多體複雜系統中的自動建模問題中來。可以學習動態的網路結構以及動力學。

  • Danilo Jimenez Rezende Shakir Mohamed: Variational Inference with Normalizing Flows, arXiv:1505.05770v6

這篇文章提出了一種新型梯度計算方法,能夠更加方便、快速地對概率密度函數進行梯度計算,從而進行變分推斷,目前幾乎已經成為了動力學學習中的一種必備方法。

  • Fan Yang†, Ling Chen∗†, Fan Zhou†, Yusong Gao‡, Wei Cao:RELATIONAL STATE-SPACE MODEL FOR STOCHASTIC MULTI-OBJECT SYSTEMS, arXiv:2001.04050v1

這篇文章提出了一種基於狀態空間的隨機多體系統自動學習建模方法。

  • Ricky T. Q. Chen*, Yulia Rubanova*, Jesse Bettencourt*, David Duvenaud: Neural Ordinary Differential Equations, arXiv:1806.07366v5

這篇文章首次提出了運用最優控制原理可微分地求解常微分方程的方法,並將深度網路連續化,並視作一種動力系統,因此對深度網路的訓練也被轉化為一種常微分方程的求解問題。

  • Michael John Lingelbach, Damian Mrowca, Nick Haber, Li Fei-Fei, and Daniel L. K. Yamins: TOWARDS CURIOSITY-DRIVEN LEARNING OF PHYSICAL DYNAMICS, 「Bridging AI and Cognitive Science」 (ICLR 2020)

這是一篇提出了讓機器主動干擾物理系統,從而更有效地學習物理體系規則的人工智慧系統。

  • Chengxi Zang and Fei Wang: Neural Dynamics on Complex Networks, AAAI 2020

AAAI 2020的best paper,將Neural ODE與圖網路結合針對複雜網路的一般的動力學西問題,利用最優控制原理進行求解。該文還將半監督節點分類問題也轉化為最優控制問題,從而取得了顯著的效果。



網路嵌入以及在科學學(science of science)以及工作的未來(future of work)當中的應用

Screen Shot 2020-06-10 2.png

See Jure Leskovec's class of (Graph Representation Learning https://www.youtube.com/watch?v=YrhBZUtgG4E) for more details.

Network embedding, or Graph Representation Learning, is a task of learning vector representation of nodes such that these vector operations (usually cosine similarity) retrieve the similarity between nodes. Similarity can be defined in different ways, including 1st order (linked), 2nd order (shared neighbors), or other forms (occupy the same positions such as "gatekeeper" between communities).

There are multiple approaches in defining node similarity before applying word2vec to embed networks, including deepwalk and node2vec. These approaches are different strategies to retrieve context (nodes) for target nodes (e.g., breadth-first or depth-first).

If we already have sequence data (e.g., the published journals of scholars or the skills of workers), constructing graphs from these sequences can be viewed as a discrete model alternative to directly applying word2vec and learning the continuous manifold of embeddings. The constructed graphs are the discrete samples on the continuous manifold (see Isomap).

We focus on Word2vec as the main method for network embedding before moving to more sophisticated models such as TransE or Graph Neural Networks. An often-ignored fact is that Word2vec is dual-embeddings - it has two sets of embeddings. Each word will have two vector representations, including term embedding and context embedding. In practice, word2vec has two different frameworks, CBOW (many-to-one) and Skip-gram Negative Sampling (SGNS, one-to-many). For CBOW, term and context embeddings correspond to IN and OUT vector representations, for SGNS it is reversed.


對組成人力資本的技能進行替代與互補建模

network embedding 是一個分析替代、互補的有潛力的框架。論文主要介紹了:word2vec 對於嵌入節點之間互信息的建模(1,2,3);替代互補研究在語言學中的對應(4);食譜中食材的替代互補網路研究(5,6);人力資本當中替代互補的研究(7,8)


In word2vec (SGNS), the term-context dot product (T_i*C_j) implicitly models pointwise mutual information (PMI) between words, which also called collocation between items (two items co-occur more likely than random), or co-used patterns if the data is from demand-side (e.g., the skills required for jobs). Our assumption is that the term-term dot product (T_i*T_j) models the substitution between items (how similar or exchangeable two items), and that complement = collocation - substitution.

  • 1. Nalisnick, E., Mitra, B., Craswell, N., & Caruana, R. (2016, April). Improving document ranking with dual word embeddings. In Proceedings of the 25th International Conference Companion on World Wide Web (pp. 83-84).

This paper presents how IN-IN and IN-OUT vector cosine similarities models collocative and substitutive word pairs.

  • 2. Levy, O., & Goldberg, Y. (2014). Neural word embedding as implicit matrix factorization. In Advances in neural information processing systems (pp. 2177-2185).

This paper proves that term-context embedding (T_iC_j) in SGNS implicitly models pointwise mutual information (PMI).

  • 3. Levy, O., Goldberg, Y., & Dagan, I. (2015). Improving distributional similarity with lessons learned from word embeddings. Transactions of the Association for Computational Linguistics, 3, 211-225.

This paper proposes that the term-term vector cosine similarity model 2nd order association and the term-context vector cosine similarity model 1st order association, and suggests that adding these two vectors to obtain a combined vector improves the performance of word2vec on certain NLP tasks.

  • 4. Rapp, R. (2002, August). The computation of word associations: comparing syntagmatic and paradigmatic approaches. In Proceedings of the 19th international conference on Computational linguistics-Volume 1 (pp. 1-7). Association for Computational Linguistics.

This paper called 1st and 2nd order associations "syntagmatic" and "paradigmatic" relations, respectively, following the convention created by Ferdinand de Saussure (the founding father of linguistics). This paper also proposes to measure 1st order association by co-occurrence and 2nd order association by comparing context word distribution similarity.

  • 5. Teng, C. Y., Lin, Y. R., & Adamic, L. A. (2012, June). Recipe recommendation using ingredient networks. In Proceedings of the 4th Annual ACM Web Science Conference (pp. 298-307).

This paper constructed two food-ingredient networks (one links collocation ingredients as they co-used in food receipts, the other links substitutive ingredients as suggested by users), and found that "purified", complement ingredient network can be obtained through removing substitutive parts from collocation network. And the substitutes network is more informative in predicting users preference on receipts.

  • 6. Sauer, C., Haigh, A., & Rachleff, J. Cooking up Food Embeddings.

This paper analyzes two kinds of food ingredients pairs, including substitutes and complements. They define complement pairs as frequently co-used (collocation) ingredients (maximizing Ti*Cj), and substitute pairs as those similar and replaceable (maximizing Ti*Tj).

  • 7. Neffke, F. M. (2019). The value of complementary co-workers. Science Advances, 5(12), eaax3370.

This paper found that having co-workers with an education degree similar to one』s own is costly, having co-workers with a complementary education degree is beneficial. How this is defined?

  • 8. Dibiaggio, L., Nasiriyar, M., & Nesta, L. (2014). Substitutability and complementarity of technological knowledge and the inventive performance of semiconductor companies. Research policy, 43(9), 1582-1593.

This paper found that complementarity between knowledge components positively contributes to firms』 inventive capability, whereas the overall level of substitutability between knowledge components generally has the opposite effect. How this is define?

預測科學前沿的移動

word2vec is a diffusion model. This explains why it predicts the diffusion of collective attention in search of scientific knowledge. Base on the duality between dynamics on networks (Newtonian) and geometry of networks(Einsteinian), we can assume that for all network diffusion models with PMI on edges as "geo-distance", we can develop their word2vec/representative learning/manifold learning versions (actually this paper defines "effective distance" in a similar way as PMI).

The geodesic distance of ideas

We can see the idea as the city in Brockmann's model. Scientific exploration will be the human being's migration between cities. Can we think that the difference between scholar's generation, which is the main traditional metrics of scientific innovation and spreading, is a wrong perspective? Some scholars live in the same time with others but do advanced research(eg, pioneer of quantum mechanism active in 1920 s). some scholars live now but still cites and talk about old knowledge, that is out of step with the surrounding people. though every theory will own its life circles as well as the active time. However, it cannot explain why scholars used to find the same idea across time and disciplines, as multiple discoveries proposed by Merton. Maybe the correct approach to learning idea is to construct their knowledge map( or networks), each node is an idea, the distance between any two nodes, is not time but the "effective distance". The number of scholars, that travel from one idea to another idea traced by the geodesic distance of ideas, represent the difficulty of thinking. We can use word2vec to embed the idea, or we can suppose the article is the mini element of ideas, one article can only contain one idea. According to the knowledge graph of Wikipedia, we can identify the idea( or claim, the triple-tuple including head, relation, and tail) of a paper. And clustering these articles by the claim. We can trace a scholar's career in the idea map and measure the exploration ability of the scholars.


  • 1.Brockmann, D., & Helbing, D. (2013). The hidden geometry of complex, network-driven contagion phenomena. science, 342(6164), 1337-1342.

This paper analyzed disease spread via the 「effective distance」 rather than geographical distance, wherein two locations that are connected by a strong link are effectively close. The approach was successfully applied to predict disease arrival times or disease sources.

  • 2.Tshitoyan, V., Dagdelen, J., Weston, L., Dunn, A., Rong, Z., Kononova, O., ... & Jain, A. (2019). Unsupervised word embeddings capture latent knowledge from materials science literature. Nature, 571(7763), 95-98.

This paper shows that materials science knowledge present in the published literature can be efficiently encoded as information-dense word embeddings without human labeling or supervision. We demonstrate that an unsupervised method can recommend materials for functional applications several years before their discovery.

構建原子技能以及職業在機器中的表示

Arora, S., Li, Y., Liang, Y., Ma, T., & Risteski, A. (2018). Linear algebraic structure of word senses, with applications to polysemy. Transactions of the Association for Computational Linguistics, 6, 483-495. Chicago This paper shows that multiple word senses reside in linear superposition within the word embedding and simple sparse coding can recover vectors that approximately capture the senses. ,A novel aspect of the technique is that each extracted word sense is accompanied by one of about 2000 「discourse atoms」 that gives a succinct description of which other words co-occur with that word sense. Discourse atoms can be of independent interest, and make the method potentially more useful. Empirical tests are used to verify and support the theory.

補充:sparse coding 稀疏表示

\mathcal{L}_{\text{sc}} = \underbrace{||WH - X||_2^2}_{\text{reconstruction term}} + \underbrace{\lambda  ||H||_1}_{\text{sparsity term}}

Sparse coding is a representation learning method that aims at finding a sparse representation of the input data (also known as sparse coding) in the form of a linear combination of basic elements as well as those basic elements themselves. These elements are called atoms and they compose a dictionary. Atoms in the dictionary are not required to be orthogonal, and they may be an over-complete spanning set. This problem setup also allows the dimensionality of the signals being represented to be higher than the one of the signals being observed. The above two properties lead to having seemingly redundant atoms that allow multiple representations of the same signal but also provide an improvement in sparsity and flexibility of the representation.

因果推理

Judea Pearl 如下的三篇論文是現代因果推理的必讀文章

  • J. Pearl, "The Seven Tools of Causal Inference with Reflections on Machine -
  • Learning," July 2018. Communications of ACM, 62(3): 54-60, March 2019 J. Pearl, "Causal and counterfactual inference," October 2019. Forthcoming section in The Handbook of Rationality, MIT Press.
  • J. Pearl, "Causal inference in statistics: An overview," Statistics Surveys, 3:96--146, 2009.

第一篇首先指出當前強人工智慧的三大主要困難,然後指出現代因果模型將會幫助解決這些困難。介紹了因果推理本質的三級因果之梯,提出一個回答因果問題的引擎,總結了因果推理當前七大工具。第二篇文章介紹了結構因果模型(SCM)的理論框架及其應用。第三篇文章是因果推理的一個全面細緻的綜述。

Bernhard Scholkopf 及其團隊,有兩篇關鍵論文

  • Causality for machine learning, B Schölkopf - ‎2019
  • Foundations of Structural Causal Models with Cycles and Latent Variables, Bongers etc -2020

如果 Judea Pearl 對於因果推理的貢獻是從零到一,那麼有人稱 Causality for machine learning 把因果推理從1 推進到1.5,這篇文章總結和闡述了其團隊在融合 machine learning 和 causal inference 多年工作成果和深刻見解。第二篇文章展示了其團隊解決有環因果模型這一個根本性難題的努力嘗試。

Causal Inference and Data-Fusionin Econometrics 2019 Paul Hunermund 和 Elias Bareinboim(Judea Pearl 學生)是在披著經濟學的皮講解著 Causal AI 如何解決 confounding bias, selection bias and 遷移學習這些難題的因果理論框架。該文章是現代因果理論如何結合某個具體領域的標杆文章。

  • A Survey on Causal Inference, 2020 Liuyi YAO etc,

(觀測數據因果推斷是熱點,尤其是結合機器學習)Causal inference is a critical research topic across many domains, such as statistics, computer science, education, public policy and economics, for decades. Nowadays, estimating causal effect from observational data has become an appealing research direction owing to the large amount of available data and low budget requirement, compared with randomized controlled trials. Embraced with the rapidly developed machine learning area, various causal effect estimation methods for observational data have sprung up. 本文介紹在潛結果框架下的因果推斷方法,這些方法可以按照其所需要的因果假設分類,而每個類別我們會分別介紹對應的機器學習和統計方法,也會介紹其在各領域的應用,最後我們會介紹各種方法的benchmark. Pearl『s 結構因果模型並不是當前唯一流行的因果建模框架,Potential Outcome 是另外一個主流因果建模框架,尤其是在計量經濟學,流行病學等非AI領域非常流行,這篇論文是相關內容一個全面準確清晰的綜述。

其他可選論文包括:

  • Kun Kuang 老師的 Stable Learning 相關論文
  • Calculus For Stochastic Interventions: Causal Effect Identification and Surrogate Experiments, J. Correa, E. Bareinboim. AAAI-20.
  • A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms 2019 by Yoshua Bengio etc.
  • A Second Chance to Get Causal Inference Right: A Classification of Data Science Tasks 因果推斷前言綜述 by Migual. A recent influx of data analysts, many not formally trained in statistical theory, bring a fresh attitude that does not a priori exclude causal questions.
  • 時間序列因果 Granger Causality
  • .....

PS:相關的入門參考資料如下:

求解統計力學:從平均場到神經網路,再到張量網路

統計力學的核心問題之一是如何準確地計算多粒子系統的自由能、熱力學量。自上個世紀以來,物理學家發展了各種各樣的理論和方法來解決這類問題。其中,平均場理論和相關消息傳遞演算法在某些情況下能夠給出非常好的系統變分自由能結果,下面這篇綜述文章詳細介紹了相關消息傳遞演算法。

  • Understanding belief propagation and its generalizations J. Yedidia, W. Freeman, Y. Weiss International Joint Conference on Artificial Intelligence (IJCAI), 2001

統計物理的基本問題和機器學習中的非監督學習具有天然的聯繫:統計物理中的玻爾茲曼分布對應於貝葉斯推斷的後驗概率;最小化自由能原理等價於變分推斷;尋找統計物理系統的基態等價於最大似然學習等。那麼,如何利用近年來快速發展的深度學習方法老幫助我們解決統計力學問題?這篇文章提出了變分自回歸神經網路(Variational Autoregressive Networks),拓展了傳統意義上的平均場方法。

  • Solving Statistical Mechanics Using Variational Autoregressive Networks D. Wu, L. Wang, P. Zhang Phys. Rev. Lett., 122, 080602 (2019)

張量網路方法是另一類廣泛用於計算配分函數和自由能的方法,但通常受限于格點系統,因為張量網路的縮並屬於#-P難問題。這篇文章,提出了一種近似縮並任意拓撲結構張量網路的方法。

  • Contracting Arbitrary Tensor Networks: general approximate algorithm and applications in graphical models and quantum circuit simulations F. Pan, P. Zhou, S. Li, P. Zhang arXiv preprint arXiv:1912.03014

機器學習在物理學建模中的應用

Quantum State Tomography [1] Juan Carrasquilla, Ciacomo Torlai, Roger Melko, Leandro Aolita. Reconstructing quantum states with generative models. arXiv: 1810.10584

[2] Peter Cha, Paul Ginsparg, Felix Wu, Juan Carrasquilla, Peter L. McMahon, Eun-Ah Kim. Attentioned-based quantum tomography. arXiv: 2006.12469

Autoregressive generative model [3] Dian Wu, Lei Wang, Pan Zhang. Solving Statistical Mechanics Using Variational Autoregressive Networks. arXiv:1809.10606

[4] Or Sharir, Yoav Levine, Noam Wies, Giuseppe Carleo, Amnon Shashua. Deep autoregressive models for the efficient variational simulation of many-body quantum systems. arXiv:1902.04057

Flow based model [5] Shuo-Hui Li, Chen-Xiao Dong, Linfeng Zhang, Lei Wang. Neural Canonical Transformation with Symplectic Flows. arXiv: 1910.00024.


參加人員

  • 張江,北京師範大學系統科學學院教授,集智俱樂部創始人、集智AI學園創始人,研究興趣包括:複雜系統、圖網路、集體注意力流、流網路、異速生長律等。
  • 張潘,中國科學院理論物理研究所副研究員,集智科學家,研究方向為統計物理與複雜系統,具體來說是用統計物理中的一些理論如自旋玻璃理論,副本對稱破缺理論研究應用數學,網路和計算機科學中的一些問題。張潘的研究興趣廣泛,涉及物理,統計,網路和機器學習的很多方面並且在不斷地拓寬自己的研究領域。
  • 尤亦庄,加州大學聖地亞哥分校物理系助理教授,集智科學家,主要研究領域是量子多體物理,關注集體行為導致的演生現象和臨界現象。對資訊理論(特別是量子信息),複雜系統,人工智慧等領域也很感興趣。
  • 吳令飛,匹茲堡大學計算與信息學院助理教授,集智俱樂部核心成員、集智科學家。研究興趣:思想的幾何(the geometry of thinking)及其在人類知識與技能的優化組合上的應用,包括科學學(science of science),技能科學(science of skills),團隊科學(science of teams),未來工作(future of work)等方向。
  • 王磊,中科院物理所研究員,主要研究方向:深度學習,量子演算法,量子多體計算
  • 傅渥成,真名唐乾元,東京大學大學院綜合文化研究科特任研究員,南京大學物理系物理學博士。集智核心成員,主要研究方向為統計物理及其在生命科學問題中的應用,曾作為中國博士生代表參加在德國林島舉辦的「諾貝爾獎獲得者大會」。「知乎鹽 Club 2014」榮譽會員,曾出版科普書《宇宙從何而來》和多本電子書。
  • 苑明理,北京彩徹區明公司軟體工程師,集智核心成員,數學系畢業、程序員生涯,年齡漸長,但對許多事情仍然充滿好奇和困惑。因維基對知識工程發生興趣,想去探尋知識大廈搭建之道。通過一些長期的思考,認為知識表示的幾何化有助於揭示概念創生過程的秘密。
  • 肖達,北京郵電大學講師,彩雲科技首席科學家
  • 羅秀哲,中國科學院物理研究所助理。感興趣的方向是將新的機器學習理論應用在量子物理和利用量子物理理論改進機器學習,具體包括Quantum Validation, Quantum Optimization等量子信息理論和量子蒙卡,張量網路等凝聚態數值方法。詳見我的主頁:rogerluo.me。
  • 程嵩,中國科學院物理研究所在讀博士,研究方向為凝聚態理論量子多體與強關聯繫統,具體來說是基於張量重整化群的強關聯數值演算法。張量重整化群是近年來一個新興的且還在不斷發展的方法,為了不斷優化這個方法,我自己的興趣面也不斷地在糾纏,網路,幾何,機器學習等等方面拓展。
  • 吳雨桐,西北大學,坐標芝加哥地區,主要研究方向是社交網路分析、組織傳播、科學合作與創新,希望通過研讀營拓寬學術視野,結識志同道合的朋友,可以為討論提供一些社會科學的視角
  • 崔浩川,北京師範大學系統科學學院,目前在芝加哥大學knowledge lab訪問,主要研究方向是科學學,知識創新與流動,職業生涯演化,對知識表示和用信息理論解釋神經網路感興趣,希望通過研讀營認識更多相關背景的小夥伴,大家一起分享、傳播和發現知識
  • 林意靈,芝加哥大學計算社科,坐標芝加哥。主要的研究方向是科學學和人力資本中的職業演化,文化與階層。希望跟大家有很多的交流和討論,希望能在不同學科之間也能找到共同之處,相互啟發。
  • 我是張蕊麗,法語魯汶大學,目前在比利時新魯汶,應用數學與力學專業,希望能開闊視野,為以後的學術研究拓寬基礎。
  • 黃龍吉,西安電子科技大學計算機科學與技術學院直博生,主要研究方向是城市道路網路,圖卷積神經網路,希望通過研讀營認識更多同行,互相了解想法,最好的學習就是思想的碰撞。個人博客:https://www.zhihu.com/people/huangshao-62?utm_source=wechat_session&utm_medium=social&utm_oi=903218342368776192。
  • 朱秋雨,新加坡國立大學運籌與分析學院博士在讀,主要研究方向是機器學習和供應鏈管理,希望通過研讀營開拓視野,了解一些前沿研究
  • 劉晶,就讀於北京師範大學系統科學學院,坐標北京,目前研究的問題是基於張量網路方法的無監督學習,未來希望能用張量網路解決一些複雜網路系統科學領域的實際問題,希望在研讀營認識相關背景的小夥伴一起合作
  • 王碩,北京師範大學系統科學學院在讀博士,導師是張江老師,研究方向是基於圖神經網路的時空數據預測,如霧霾預報和交通流預報,希望認識能合作的朋友。
  • 龔鶴揚,中國科學技術大學統計學在讀博士,坐標北京,目前研究方向是信息視角下的因果推理,希望能找到志同道合的小夥伴,一起在Causal AI,也就是教會機器因果推理方面有所貢獻

https://sites.google.com/view/minituring/home

  • 李奉治,中科院計算所直博生,導師為徐志偉研究員,位於北京,主要研究方向為因果推理在機器學習中的應用,希望在研讀營中找到合作夥伴,共同探索因果學習的現實應用。https://github.com/L-F-Z
  • 冶恩澤,清華大學電子系學生,對類腦智能與硬體智能感興趣,希望和大家一起交流
  • 扈鴻業,加州大學聖地亞哥分校理論物理博士生,位於美國加州的聖地亞哥,我對人工智慧,量子多體系統和量子引力感興趣,目前研究的問題是如何在非監督性學習中找到一些可解釋的latent space representation,以及重整化群在機器學習中的應用。希望通過活動可以認識有趣的小夥伴,開闊自己的研究思路,也希望合作做一些有意思的問題,建立一些長期的合作關係。我的主頁在hongyehu.com
  • 彭文傑,北京語言大學計算機應用方向碩士生,研究方向是語音信息處理,之前的實驗用的方法比較傳統,目前對深度學習在語音處理的技術很感興趣,特別是無監督方向的處理,以及學習語音的representation也很感興趣。希望能和相關方向的同學好好交流。我的researchgate主頁是 https://www.researchgate.net/profile/Wenjie_Peng
  • 黃金龍,加州大學聖地亞哥分校理論物理博士生,坐標美國加州的聖地亞哥,我對量子糾錯,量子多體系統,非監督學習訓練感興趣,目前研究的問題是如何從量子糾纏推導出量子多體系統的一般性質,以及隨機張量網路的訓練。希望在研讀營能認識可以一起合作的小夥伴。https://github.com/JinlongHuang
  • 陳梓文,芝加哥大學computational social science專業的碩士生,目前在james evans實驗室做研究助理。我的研究興趣包括文化,社交媒體,網路科學、自然語言處理、城市計算等計量社會科學的內容。希望在研讀營能與大家交流各種研究想法,結識興趣一致的朋友,甚至找到合作夥伴~我的主頁是 https://ziwnchen.github.io/
  • 郭鐵城,清華大學物理系博士。目前在做量子多體物理的工作,希望在研讀營可以一起合作。
  • 杜偉韜 現在西北大學數學系聯合培養 研究性趣是stochastic analysis on non-euclidean domain, 業餘時間研究神經網路相關 發過關於神經網路演算法理論的paper, 之前本科在中科大理論物理 所以也對從統計物理角度理解機器學習演算法有興趣
  • 陳宇韜,目前是芝加哥大學計算社科的碩士研究生,研究領域主要是兩個方面:線上社群中(online community)中的行為模式及其演化,另外一方面是音樂相關的媒體和傳播研究。希望通過研讀營看到更多AI與傳統社科理論,框架的融合性,例如在AI演算法中加入某一些社科觀點(認知偏差等等)的可能性,以及如何利用AI(例如一些embeddings)對社科理論中的概念進行合理的量化,使其能夠擁有prediction, projection之外更廣的應用。也希望能藉此機會與大家交流其他學科對於AI的理解、應用或者對AI本身的發展有更多的了解~
  • 紀語,芝加哥大學系統神經科學博士在讀。最近的研究方向之一是探索神經生物網路中的高維和複雜拓撲網路和同樣具有高維與複雜拓撲性的計算語言問題之間共通的幾何和動力學方法。另一個方向是以這類方法為基礎,在近幾年的計算語言學成果和傳統的認知語言學和社會語言學研究之間建立橋樑,以探索一些新的計算社會科學的可能範式。 期待與物理、人工智慧、和計算社會科學的各位朋友交流
  • 張章 現在北京師範大學系統科學學院碩士在讀 研究性趣是複雜系統與深度學習的交叉方向 參與研讀營希望和大家溝通 我的個人主頁是3riccc.github.io
  • 陳宇,倫斯勒理工大學計算機專業應屆博士畢業生。研究興趣是機器學習和自然語言處理,最近對圖神經網路在不同領域的應用很有興趣。未來希望有機會研究一些Causal AI相關的課題。希望有機會參與研讀營,和各位師長朋友學習、交流,共同進步。我的主頁是http://academic.hugochan.net。
  • 章彥博,現在在亞利桑那州立大學讀博士。研究興趣是複雜系統與機器學習的交叉領域,希望能夠使用機器學習的方法,研究複雜系統領域的重要問題。例如湧現、邊界、意識等問題。希望在研讀營里可以與大家探討相關的問題,並開拓視野。我的主頁是:http://emergence.asu.edu/yanbo-zhang.html
  • 姚迪,中科院計算所博士畢業,目前是所里助理研究員。研究興趣是圖機器學習,時空數據挖掘,最近對因果推斷在時空數據相關任務上的應用很有興趣。希望在研讀營跟大家多多交流學習。我的主頁是:http://yaodi.info/
  • 黃偉,現在悉尼科技大學讀博士。研究的領域是深度學習理論,對深度學習和統計物理,圖網路的交叉領域感興趣。希望能夠使用統計物理的方法對深度學習理論/圖神經網路研究提供切入點。希望在研讀營里可以與大家探討相關的問題,並開拓視野。
  • 黃華津,中國傳媒大學傳媒經濟學,坐標北京市朝陽區。近期我一直在關注思考傳播網路特別是基於社交媒體的傳播網路中的級聯-逆向級聯現象,我的研究興趣包括政府組織中的複雜系統,國家、政府組織的誕生與發展,職能部門的演化過程,媒介與媒介組織中的複雜網路。我原來的研究基本是純人文社科背景,近一年正在努力學習複雜性科學,希望能得到大家的幫助
  • 曹立坤 目前是芝加哥大學社會學系二年級的博士生。我的研究興趣是計算社科,組織研究,網路分析,研究里會涉及到一些自然語言處理和複雜網路的內容,最近也對複雜系統很感興趣,希望了解很多。


主辦方介紹

集智俱樂部

集智俱樂部,英文名:Swarma Club,成立於 2003 年,是一個從事學術研究、享受科學樂趣的探索者的團體,也是國內最早的研究人工智慧、複雜系統的科學社區。它倡導以平等開放的態度、科學實證的精神,進行跨學科的研究與交流,力圖搭建一個中國的 「 沒有圍牆的研究所 」。


凱風基金會

凱風公益基金會於2007年3月設立,是國家民政部主管的非公募公益基金會。也是首批由企業發起、國家民政部批准設立,並由國家民政部作為上級主管部門的公益基金會。凱風公益基金會主要通過機構合作方式,對在學術研究、政策研究、教育和公益實踐方面獲得重要成果、具備實力和潛力的學術精英和公益精英,進行資助和獎勵,進而達到提升公共福利、增加公眾利益、傳播公益思想的目的。凱風公益基金會的戰略合作夥伴包括國內外頂尖的綜合性大學和研究機構、專業藝術院校、國內外一流的NGO。

個人工具
名字空間
動作
導覽
工具箱