06
ResponsibleTA提升LLM可靠性,任务完成更安全、更高效
基于Transformer的大模型是如何运行的?Meta从全局...
浙大团队将化学知识引入机器学习,提出可外推、可...
大模型时代,一定要来讨论下数据与隐私
GPT-4是8x2200亿参数的混合模型?这个小道消息今天传疯了
小羊驼背后的英雄,伯克利开源LLM推理与服务库:GP...
不写代码,一句提示生成整个代码库,GPT-Engineer项目火了
仅使用解码器实现语音翻译,字节跳动提出基于LLM的...
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大...
窥探他人眼中的世界:用眼睛反光重建3D场景,《黑...