07
一个开源方案,极速预训练650亿参数LLaMA
Transformer取代者登场!微软、清华刚推出RetNet:...
比标准Attention提速5-9倍,大模型都在用的FlashAttention
ChatGPT代码解释器与Jupyter Notebook合体,编码能力更强了
能胜任统计学家?Transformers超强学习机制「自动...
上万张照片怎么找?百度网盘:你只管说,我们帮你找
将蛋白质语言模型扩展到千亿参数,深度解读百图生...
Sam Altman:大家如此喜爱Code Interpreter!这是结合Mi
今天,清华唐杰、上交卢策吾等AI学者获得第五届科...
速度提升数十倍,只需一张图一句话,谷歌新模型20...