如何提升预训练LLMs:从零打造到微调优化的全攻略

文章介绍了在现有预训练模型基础上进行微调的方法,包括监督式微调、偏好对齐方法(如基于人类反馈的强化学习和直接偏好优化)、单体偏好优化等,强调了其在提升模型实用性和适应特定任务中的优势。

大模型版生命游戏来了!「AI科学家」背后公司联手MIT&OpenAI等打造

研究团队利用大模型ASAL(人工生命自动搜索)探索ALife领域,该方法能有效生成包括康威生命游戏在内的多种ALife模拟。通过有监督目标搜索、开放式搜索和照明式搜索三种方法,ASAL在多个经典ALife环境中成功发现新生命形式,并且展示了开放性进化的特点。