上海/维也纳,2024年7月23日— 在YandexResearch、ISTAustria、NeuralMagic和KAUST的共同努力下,两种创新的大型语言模型(LLM)压缩方法——加性量化语言模型(AdditiveQuantization for Language Models,AQLM)和PV-Tuning正式发布。这两种方法可以将模型大小减少多达8倍,同时保留95% ...