本文談計(jì)算機(jī)和人工智能理論使用范疇學(xué)的一些例子。希望借助這些例子鼓勵(lì)更多計(jì)算機(jī)科學(xué)與數(shù)學(xué)的交流,相互促進(jìn)更大的創(chuàng)新發(fā)展,希望人工智能有一天用上更深刻的數(shù)學(xué)。
本文根據(jù)作者在2025年4月在河南師范大學(xué)數(shù)學(xué)系和計(jì)算機(jī)系的報(bào)告撰寫。
撰文 | 黎景輝
1
計(jì)算機(jī)和人工智能
1943-1945年,美國賓夕法尼亞大學(xué)電機(jī)工程學(xué)院物理學(xué)家莫奇利(John William Mauchly)和工程師埃克特(John Presper Eckert Jr.)建成了世界上第一臺、重約30噸可設(shè)定程序的通用電子計(jì)算機(jī)ENIAC。當(dāng)偶然聽說了這個(gè)項(xiàng)目之后,數(shù)學(xué)家馮·諾依曼(Johnvon Neumann)后來以顧問的形式參與到ENIAC的研制計(jì)劃之中。
據(jù)標(biāo)準(zhǔn)的課本(如 參考文獻(xiàn)[11][14][27][39]),1943年,心理學(xué)家WarrenMcCulloch和數(shù)學(xué)家WalterPitts最早提出了一種基于簡單邏輯運(yùn)算的人工神經(jīng)網(wǎng)絡(luò)。1950年圖靈(Alan Turing)發(fā)表題目為《計(jì)算機(jī)器和智能》的論文。1956年,在Dartmouth會議上,McCarthy提出了人工智能的定義:人工智能就是要讓機(jī)器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。美國心理學(xué)家和計(jì)算機(jī)科學(xué)家弗蘭克·羅森布拉特(Frank Rosenblatt)則在1958年提出了一種稱為感知器(Perceptron)的、以模擬人類感知能力為特征的神經(jīng)網(wǎng)絡(luò)模型。1983年,物理學(xué)家John Joseph Hopfield提出了一種用于聯(lián)想記憶(Associative Memory)的神經(jīng)網(wǎng)絡(luò),稱為Hopfield網(wǎng)絡(luò)。1984年,加拿大計(jì)算機(jī)科學(xué)家Geoffrey Hinton提出一種隨機(jī)化版本的Hopfield網(wǎng)絡(luò),即玻爾茲曼機(jī)(BoltzmannMachine)。因?yàn)檫@些工作,Hopfield和Hinton獲得2024年諾貝爾物理學(xué)獎。2017年,在NeurlPS會議上,谷歌的8人團(tuán)隊(duì)在文章“Attention Is All You Need”(arXiv:1706.03762)中發(fā)表了Transformer ——一個(gè)創(chuàng)新的生成式人工智能(Generative AI)架構(gòu)。不同于傳統(tǒng)的人工智能僅對輸入數(shù)據(jù)進(jìn)行處理和分析,生成式人工智能使用深度學(xué)習(xí)通過訓(xùn)練、優(yōu)化和生成來學(xué)習(xí)并模擬事物的內(nèi)在規(guī)律,根據(jù)輸入的資料生成具有邏輯性和連貫性的新內(nèi)容。由此,人工智能進(jìn)入了“大型語言模型”(LLM)的時(shí)代。2024年,EpochAI[43]提出FrontierMath, 這是一個(gè)用于評估人工智能數(shù)學(xué)推理能力的基準(zhǔn)測試,六個(gè)當(dāng)今世界最領(lǐng)先的模型 : o1、Claude 3.5、Sonnet、GPT-4o、Grok和Gemini 1.5 Pro在這個(gè)測試下的成功率都低于2%。這個(gè)測試是基于三百多個(gè)涵蓋了現(xiàn)代數(shù)學(xué)的大多數(shù)主要分支的問題而來的。
下圖顯示EpochAI的數(shù)學(xué)世界
EpochAI的數(shù)學(xué)世界丨圖源:Epoch AI
這些問題有兩個(gè)特征:(1)解決方案是自動可驗(yàn)證的,從而實(shí)現(xiàn)高效的評估;(2)所有問題都是新的且未發(fā)表的,以防止數(shù)據(jù)污染——這是說LLM利用計(jì)算機(jī)的超級速度對關(guān)聯(lián)的大數(shù)據(jù)進(jìn)行實(shí)時(shí)采掘, 對沒有收錄在它們數(shù)據(jù)庫的全新內(nèi)容, LLM是沒有辦法的, 更何況人類自已也不知道的猜想的答案呢! 講個(gè)笑話:網(wǎng)上的人工智能工具可以談戀愛, 但距離可以創(chuàng)新數(shù)學(xué)、物理學(xué)和其他基礎(chǔ)理論科學(xué)還遠(yuǎn), 大家是仍然有很多機(jī)會的。
我們可以說: 人工智的“起飛”是始于OpenAI使用英偉達(dá)建造的微超級計(jì)算機(jī)(mini-super-computer)向公眾提供ChatGPT——這就是我們所說的計(jì)算機(jī)與人工智能的結(jié)合。
我們借助幾張照片簡單介紹計(jì)算機(jī)和人工智能的關(guān)系。
這張照片是2016 年 8 月英偉達(dá)(Nvidia)黃仁勛親手贈送給時(shí)在OpenAI的馬斯克(Elon Reeve Musk)全球第一部 AI 超級計(jì)算機(jī) DGX-1,這部計(jì)算機(jī)更適合用于AI的計(jì)算。2023 年5月25 日英偉達(dá)的市值增加2千億美元(破紀(jì)錄),到月底時(shí)全球市值排第六,超過Walmart 加上ExxonMobil。2025 年 1 月 28 日, DeepSeek 發(fā)布 R1,英偉達(dá)的市值暴跌 5 千億美元(破紀(jì)錄)。
下圖是英偉達(dá)的人工智能計(jì)算機(jī)芯片GB2000——這是上面的兩個(gè)GPU作平行計(jì)算實(shí)時(shí)與下面的一個(gè)作線性計(jì)算的CPU轉(zhuǎn)換。現(xiàn)時(shí)英偉達(dá)的H20芯片是禁運(yùn)我國的,我們可以進(jìn)口的是低一檔的H200。
下圖是我國生產(chǎn)的華為AI推理芯片(其中NPU是搭載了8顆昇騰910B,而CPU是配備了4顆鯤鵬920,左圖)和人工智能超級計(jì)算機(jī)華為昇騰 Atlas900(右圖)。
2
計(jì)算機(jī)與范疇學(xué)
計(jì)算機(jī)系的老師開的數(shù)學(xué)課以數(shù)理邏輯為主,他們會講模態(tài)邏輯(如[6])或與函數(shù)程序設(shè)計(jì)相關(guān)的λ演算(如[17])。至于計(jì)算機(jī)與范疇學(xué),也許大家不相信兩者有關(guān)系。我們不打算說明,但是我們希望用幾本(例如[2][12][24][25][32][42])給計(jì)算機(jī)系的學(xué)生上范疇學(xué)的課本支持我們觀點(diǎn)——范疇學(xué)是可以幫助明白和解決計(jì)算機(jī)理論問題的。
3
人工智能與范疇學(xué)
余下我們專注討論人工智能與范疇學(xué)。從下圖可見github收錄的范疇與機(jī)器學(xué)習(xí)的文章出現(xiàn)了快速增長(在arXiv上亦類似)。
最近人們發(fā)現(xiàn): 計(jì)算機(jī)、人工智能和范疇學(xué)好像有共同的理論結(jié)構(gòu)。我們舉范疇學(xué)進(jìn)入神經(jīng)網(wǎng)絡(luò)理論的三個(gè)例子來說明這個(gè)現(xiàn)象:
(一) 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的范疇結(jié)構(gòu);
(二) SNN神經(jīng)網(wǎng)絡(luò)的信息結(jié)構(gòu);
(三) DNN神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。
在未開始之前,我們先說說范疇是什么?
4
范疇是什么?
(1)數(shù)學(xué)是使各不同的系統(tǒng)可以對話的語言。
(2)數(shù)學(xué)是研究結(jié)構(gòu)的科學(xué)。當(dāng)兩個(gè)絕不相同的系統(tǒng)有共同結(jié)構(gòu)的時(shí)候,這兩個(gè)系統(tǒng)便可以經(jīng)過共同結(jié)構(gòu)使用數(shù)學(xué)對話。
(3)什么是一個(gè)數(shù)學(xué)結(jié)構(gòu)?每當(dāng)一個(gè)系統(tǒng)有一個(gè)過程把兩件事(或說兩個(gè)元素)合成為新的一件事,便有一個(gè)數(shù)學(xué)結(jié)構(gòu)。例如在代數(shù)學(xué)我們說‘群’G 是一種數(shù)學(xué)結(jié)構(gòu)。G的任何兩個(gè)元x,y可以合成為一個(gè)屬于G的元x?y。整數(shù)Z的加法是“群”的例子,兩個(gè)整數(shù) x, y可以用整數(shù)的加法合成為一個(gè)整數(shù)x+y。
(4)一個(gè)“范疇”也是一種數(shù)學(xué)結(jié)構(gòu)。不過, “范疇”是可以用來研究數(shù)學(xué)結(jié)構(gòu)的數(shù)學(xué)結(jié)構(gòu)。例如:我們可以考慮由所有“群”組成的范疇Grp。
一個(gè)“范疇”C有兩個(gè)部分。(1)是C的對象。(2)是C的態(tài)射。例如: 所有“集”組成的范疇Set的對象就是任何一個(gè)“集”;Set的態(tài)射就是任何一個(gè)“集的映射”f:X→Y。 我們用一個(gè)“集的映射” f:X→Y來比較兩個(gè)集X,Y;我們用一個(gè)“范疇的函”’F:C→D 來比較兩個(gè)范疇C,D。
(5)拓?fù)淇臻g是刻劃連續(xù)性的數(shù)學(xué)結(jié)構(gòu)[40]。由所有‘拓?fù)淇臻g’組成的范疇記為Top。范疇學(xué)的第一個(gè)重要的函子是基本群函子π:Top →Grp。使用函子π可以簡單的解決關(guān)于拓?fù)淇臻g的性質(zhì)的問題[41]。我們當(dāng)留意這是一件很神奇的事, Top是講連續(xù), Grp是講加法, 左右兩邊看起來沒有半點(diǎn)關(guān)系, 但是數(shù)學(xué), 即是函子π, 把兩邊聯(lián)絡(luò)起來!這個(gè)把兩種事物聯(lián)絡(luò)起來的想法應(yīng)會對人工智能理論有所貢獻(xiàn)。
(6)目前我國比較成熟的數(shù)學(xué)系的本科生能學(xué)到一點(diǎn)范疇學(xué)。范疇學(xué)大師、美國數(shù)學(xué)家Francis William Lawvere為中學(xué)生寫了一本學(xué)習(xí)范疇學(xué)的教材[22](不單范疇學(xué),美國人亦鼓勵(lì)青少年學(xué)習(xí)人工智能編程語言Python[8])。本文以下出現(xiàn)的范疇都是幺半范疇(symmetric monoidal category),定義見[21]李文威的代數(shù)學(xué)方法。定義數(shù)學(xué)結(jié)構(gòu)是需要使用數(shù)理邏輯的,不過看看[19][20]亦可以增加理解。
5
用可微函數(shù)造一個(gè)范疇的例子
設(shè)k=m則合成(Q,J)?(P,I) 是 (P×Q,I?J) ,其中(I?J)(p,q,a) = J(q,I(p,a))。
定義(P,I)?(Q,J) 為 (P×Q,I∥J) ,其中 (I ∥ J)(p,q,a,c) = (I(p,a),J(q,c)).
6
人工智能與范疇學(xué)的第一個(gè)例子:神經(jīng)網(wǎng)絡(luò)
接下來我們說明怎樣把神經(jīng)網(wǎng)絡(luò)放在一起成為一個(gè)范疇,這是我們討論人工智能與范疇學(xué)的第一個(gè)例子。
人腦由860億個(gè)神經(jīng)元(neuron)組成, 這些神經(jīng)元由100萬億個(gè)軸突(axon)“聯(lián)絡(luò)起來。以下是一張美麗的顯微鏡下的人腦神經(jīng)網(wǎng)絡(luò)圖:
下圖展示兩個(gè)神經(jīng)元的軸突聯(lián)系:
我們假設(shè)人工智能是用計(jì)算機(jī)建模來模仿人腦。我們簡化實(shí)況——把神經(jīng)元安排在一系列的面板(panel),我們用線條代表軸突以顯示兩個(gè)相繼的面板的神經(jīng)元的聯(lián)絡(luò)。我們稱兩個(gè)面板之間的所有聯(lián)絡(luò)線條為神經(jīng)網(wǎng)絡(luò)的聯(lián)絡(luò)層(layer), 就是說從一個(gè)面板上的神經(jīng)元到另一面板上所有的神經(jīng)元的軸突組成兩個(gè)面板之間的一個(gè)聯(lián)絡(luò)層。
我們用一個(gè)集C={(i,j): 1 ≤i ≤m, 1 ≤j ≤n}來記錄一個(gè)(m,n)-型聯(lián)絡(luò)層:這是說有m個(gè)神經(jīng)元在第一個(gè)面板,n個(gè)神經(jīng)元在第二個(gè)面板,若一對整數(shù)(i,j)在集C出現(xiàn)是指左邊面板第i個(gè)神經(jīng)元是聯(lián)絡(luò)至右邊面板第j個(gè)神經(jīng)元。以下是一個(gè)簡単的例子——一個(gè)(4,3)-型神經(jīng)網(wǎng)絡(luò)。
定義神經(jīng)網(wǎng)絡(luò)范疇NNet的對象為自然數(shù), 態(tài)射$Hom (m,n)為所有(m,n)-型神經(jīng)網(wǎng)絡(luò)。用拼接(concatenation)定義網(wǎng)絡(luò)的合成,恒等態(tài)射是0層神經(jīng)網(wǎng)絡(luò)。
這樣我們達(dá)到了第一個(gè)目標(biāo):神經(jīng)網(wǎng)絡(luò)放在一起是一個(gè)范疇。
7
怎樣學(xué)習(xí)的?
把這個(gè)想法推廣一下,下圖是三塊面板兩層的網(wǎng)絡(luò), 這時(shí)每一層的權(quán)便寫為矩陣(wij)。
8
人工智能與范疇學(xué)的第二個(gè)例子:信息
以T記絕對溫度,Q記熱量,熱動力學(xué)用以下公式引入函數(shù)熵(entropy)S:dS =dQ/T。
借用到信息論: 信息的增量=不確定性的減量。
(1) 定義事件A的信息內(nèi)容為I(A) :=-log P(A), 其中P為概率。
現(xiàn)代信息論是從Shannon 1948年Bell Journal[28]及Carnap和Bar-Hillel 1952年MIT Electronics Laboratory的文章[9]開始。之后的發(fā)展主要是在應(yīng)用。到2015年拓?fù)溥M(jìn)入信息論, Baudot和Bennequin[5]指出信息論的熵是上同調(diào)類, 這是信息論的一個(gè)劃時(shí)代的更新。到了2020年Vigneaux[30]提出信息結(jié)構(gòu)(information structures)統(tǒng)一各個(gè)觀點(diǎn)。
9
回到神經(jīng)網(wǎng)絡(luò)
(1) 生理神經(jīng)元在接收輸入(光或外部電輸入等感官刺激)或被細(xì)菌攻擊時(shí)會被激活而產(chǎn)生電勢。
(2)神經(jīng)通訊:神經(jīng)元之間的通訊通過電信號和化學(xué)信號進(jìn)行。當(dāng)一個(gè)神經(jīng)元接收到來自其他神經(jīng)元的信號時(shí),它會在細(xì)胞體內(nèi)處理這些信息,如果累積的輸入足夠強(qiáng),就會產(chǎn)生一種稱為動作電勢的電脈沖。
(3) 如果我們在神經(jīng)網(wǎng)絡(luò)加入神經(jīng)元,用發(fā)射脈沖(spike)序列傳輸信息,我們得到SNN(spiking neural network)[26](如下圖)。
10
電碼
神經(jīng)元在特定時(shí)間間隔內(nèi)要么活躍, 即有一個(gè)脈沖;要么不活躍, 即沒有脈沖。假設(shè)我們把觀察時(shí)段分為n段,使得每個(gè)小時(shí)段最多只有一個(gè)脈沖。若第i個(gè)小時(shí)段有脈沖我們記1,沒有則記0, 于是我們得一個(gè)n位二進(jìn)數(shù), 例如1011。假如我們做k個(gè)觀察便生成一個(gè)二進(jìn)碼C。
定理. :Codes(n)→InfoStr是函子。
這是德國Bonn Max Planck Institute的工作[23]。
11
人工智能與范疇學(xué)的第三個(gè)例子:Topos
一個(gè)Topos是一個(gè)有豐富結(jié)構(gòu)的范疇。一直以來Topos理論只是小部份的代數(shù)幾何學(xué)家([35][37])和幾何邏輯學(xué)家的工具([36])。但是進(jìn)入了21世紀(jì)便看見Topos在信息系統(tǒng)控制([1])、網(wǎng)路管理([7])、神經(jīng)網(wǎng)絡(luò)([4][5][19])、6G通訊([3])、人工智能([18])和量子人工智能([31])的應(yīng)用。
定理.每一個(gè)深度神經(jīng)網(wǎng)絡(luò)(DNN)N 有一個(gè)ToposT(N) 使得 N的動力系統(tǒng)是屬于T(N)的層(sheaf)。
以上來自華為巴黎實(shí)驗(yàn)室Bennequin, Belfiore 2022年的工作[4]。
12
結(jié)語
為了鼓勵(lì)學(xué)生學(xué)習(xí),老師常說“數(shù)學(xué)很有用”。老師說:今天你掌握多少數(shù)學(xué)就是你可以掌握多少你明天的前程 ! 在此我們讓企業(yè)說同樣的話。2020年9月12日,華為徐文偉在由中國工業(yè)與應(yīng)用數(shù)學(xué)學(xué)會舉辦的數(shù)學(xué)促進(jìn)企業(yè)創(chuàng)新發(fā)展論壇提出通訊數(shù)學(xué)的華為10大問題。這是值得我們下載看看生產(chǎn)前線對數(shù)學(xué)的求助。此外2021年劍橋大學(xué)出版社為華為出版文集[16], 書中華為的不同部門的主管談他們工作上遇到的數(shù)學(xué)。我們相信華為之外像阿里巴巴、騰訊等也在使用大量數(shù)學(xué)。不過從文獻(xiàn)[14][38][39]所見,人工智能用的數(shù)學(xué)只是微積分、線性代數(shù)、數(shù)值算法、Bayes統(tǒng)計(jì)、Monte Carlo方法和隨機(jī)梯度下降。我們只能希望有一天人工智能可以用上更深刻的數(shù)學(xué)。
參考文獻(xiàn)
[1] Avsykevich D,Formalization ofcontrol systems based on the topos theory, Military Space Academy, St. Petersburg,(2021).
[2] Barr M, Wells C ,Category Theory for Computing Science,Grundlehren dermath. Wiss. 278, Springer-Verlag, Berlin, (1985).
[3] Belfiore J, Debbah M, Towards an intelligent 6G - a Topos perspective, Huawei Algo. Lab. Paris (2019).
[4] Belfiore J, Bennequin D, Topos and stacks of deep neural networks, Huawei Adv. Wireless Lab. Paris arXiv, 2106.14587, (2022).
[5]Baudot P, Bennequin D, The homological nature of entropy, Entropy, 17(5):3253–3318, (2015).
[6]Blackburn P, de Rijke M, Venema Y, Modal Logic. Cambridge University Press (2002).
[7]Bonick J,Higher category theory as a paradigm for network applications,Signal Processing, Sensor Fusion, and Target Recognition,United States Defense and Security Symposium, (2006).
[8] Briggs J, Python for Kids: A Playful Introduction to Programming, No Starch Press; ( 2022)
[9] Carnap R, Bar-Hillel Y, An outline of a theory of semantic information, MIT
Lab. Of Electronics, Technical Report 247 (1952).
[10] Cover T, Thomas J, Elements of Information Theory, Wiley, (2006)
[11]Fausett L, Fundamentals of Neural Networks_ Architectures, Algorithms, and Applications, Prentice Hall, Englewood Cliffs (1993).
[12]Fiadero J, Categories for Software Engineering, Springer. (2005).
[13]Fong B, Spivak D, Tuyeras R, Backprop as functor, ArXiv 1171.10455, (2019)
[14]Goodfellow I, Bengio Y, Courville A, Deep Learning, MIT Press,(2016).
[15]Gust H,Learning Models of Neural Networks Based onTopos Theory, (2007).
[16]Heng L, McColl B(Editors), Mathematics for Future Computing and Communications-Huawei volume, Cambridge University Press, (2021).
[17]Hindley J, Seldin J, Lambda Calculus and Combinatorics, Cambridge University Press, (2008).
[18]Lafforgue L, Some possible roles for AIof Grothendieck topos theory, Huawei Research Center, France, (2022).
[19]黎景輝, 馮淑霞,梁志斌,俞小祥,朱一心, 中學(xué)數(shù)學(xué)和大學(xué)數(shù)學(xué)的本質(zhì)區(qū)別對學(xué)習(xí)和教學(xué)的影響, 數(shù)學(xué)通報(bào), 59(3), 1-6; 59(4), 7-10,17; (2020).
[20] 黎景輝, 形式系統(tǒng)和數(shù)學(xué), 數(shù)學(xué)文化, 11-3 (2020) 37-44.
[21] 李文威,代數(shù)學(xué)方法, 卷一,二, 北京, 高等教育出版社 (2016).
[22] Lawvere W, Schanuel S, Conceptual Mathematics: A First Introduction to Categories Cambridge University Press; ( 2009)
[23]Manin Y, Marcolli M, Homotopy-theoretic and categorical models of neural informationnetworks, Compositionality, 6 (2024).
[24]Milewski B, Category Theory for Programmers,Creative CommonsAttribution (2017).
[25]Pierce B, Basic Category Theory for Computer Scientists,MITP ress,1991.
[26] Quiroga R, Panzeri S(Ed),Principles of Neural Coding, CRC Press, (2013).
[27] 邱錫鵬, 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí),復(fù)旦大學(xué)(2021)https://nndl.github.io
[28]Shannon C, A mathematical theory of communication. Bell System Technical Journal,27:379–423, 623–656,(1948.)
[29]Vallani M, Topos of Google Transformer Networks, arXiv, 2403.18415(2024).
[30] Vigneaux J, Information structures and their cohomology, Theory and Applications of Categories, Vol. 35, No. 38, (2020), 1476–1529.
[31]D. Youvan, Topos Theory and the Evolution of Quantum AI, (2024)
[32]Walters R, Categories and Computer Science, Cambridge University Press (2009).
[33] 馮克勤, 陳豪, 量子糾錯(cuò)碼, 科學(xué)出版社 (2010).
[34]W.F. Ke, 黎景輝,R. B. Zhang, Quantum codes from Hadamard matrices, Linear and Multilinear Algebra, 58 (2010) 847-854.
[35]Grothendieck A, et. al.,Seminaire de Geometric Algebrique, [SGA 4], Springer Lect. Notes Math., 269 (1972).
[36] Johnstone P, Topos Theory, Dover Books, (2014).
[37]黎景輝,TOPOS理論, 高等教育出版社, 2025年將出版。
[38]Hardt M, Recht B, Singer Y, Train faster, generalize better: Stability of stochastic gradient descent, Proceedings of The 33rd International Conference on Machine Learning, J. Machine Learing Research, 48 (2016) 1225- 234.
[39] Murphy K, Machine Learning, MIT Press (2012).
[40] 江輝有, 拓?fù)鋵W(xué)基礎(chǔ), 北京:科學(xué)出版社(2001).
[41] Massey W,Algebraic Topology-an introduction, Springer (1977)
[42] Pitt D, Rydeheard D, Johnstone P (eds.), Category Theory and Computer Science, Springer Lecture Notes in Computer Science 953, (1995).
[43]E. Glazer, et.al. , FrontierMath: A Benchmark for Evaluating Advanced Mathematical Reasoning in AI, (2024), arXiv:2411.04872v5
作者簡介
黎景輝,1974年數(shù)學(xué)博士,論文導(dǎo)師是朗蘭茲。畢業(yè)后在中國香港、中國臺灣和國外的大學(xué)當(dāng)老師。自1978年曾在中山大學(xué)、華東師范大學(xué)、北京大學(xué)、首都師范大學(xué)、山東大學(xué)、河南大學(xué)、東北師范大學(xué)、河南師范大學(xué)等大學(xué)講課。研究方向是代數(shù)數(shù)論和數(shù)學(xué)教育。在科學(xué)出版社、高等教育出版社、北京大學(xué)出版社和河南大學(xué)出版社出版多部數(shù)學(xué)專著。
特 別 提 示
1. 進(jìn)入『返樸』微信公眾號底部菜單“精品專欄“,可查閱不同主題系列科普文章。
2. 『返樸』提供按月檢索文章功能。關(guān)注公眾號,回復(fù)四位數(shù)組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。
版權(quán)說明:歡迎個(gè)人轉(zhuǎn)發(fā),任何形式的媒體或機(jī)構(gòu)未經(jīng)授權(quán),不得轉(zhuǎn)載和摘編。轉(zhuǎn)載授權(quán)請?jiān)凇阜禈恪刮⑿殴娞杻?nèi)聯(lián)系后臺。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.