返回博客

周凯

在校研究生

教育背景

人工智能 硕士学位

吉林大学

2025.09 - 2028.07

  • 研究方向:深度学习、大模型、多模态生成
  • 相关课程:高级机器学习、深度学习进阶、计算机视觉进阶、人工智能原理

数据科学与大数据技术 学士学位

南京信息工程大学

2021.09 - 2025.07

  • GPA: 3.4(专业前25%)
  • 荣誉:校优秀学生干部,国家励志奖学金,校奖学金等
  • 主修课程:数据结构与算法、数据库原理、机器学习、大数据处理技术
  • 技能培养:Python编程、统计分析、数据挖掘、深度学习基础

项目经历

ChatGPT 风格对话助手微调项目

  • 独立实现完整RLHF训练流程,涵盖监督微调(SFT)、奖励模型训练(RM)及强化学习微调(PPO)
  • 使用开源中文语言模型 Qwen3-7B,在自构建的中英文对话数据集上进行微调优化
  • 采用 LoRA 轻量参数高效调参方案,提升模型在指令理解、语义连贯性和人类偏好响应上的表现
  • 使用 HuggingFace TRL 库构建 PPO 策略优化流程,基于奖励模型对模型生成质量进行打分训练
  • 项目模块化程度高,具备可扩展性,可适配多种中文开源模型并接入在线部署流程
  • 构建了包含 2k+ 条 prompt-response 样本的对话数据集,覆盖闲聊、问答、任务型指令
  • 对比训练前后模型输出效果,并使用 GPT-4 进行自动偏好评估(可视化评分对比)
  • 项目支持部署至 API 接口或本地 Streamlit Demo,具备工程落地能力

技术栈:Transformers、TRL (PPOTrainer)、PEFT、LoRA、Qwen、PyTorch、Datasets、RLHF、HuggingFace

企业知识问答Agent系统

  • 独立设计并开发企业文档问答系统,支持上传 PDF,构建向量索引并调用大语言模型回答问题
  • 使用 LangChain 框架构建 Retrieval-Augmented Generation (RAG) 管线,采用 Qwen-7B-Chat 实现问答生成
  • 利用 FAISS 进行向量检索,结合 HuggingFace 中文嵌入模型优化搜索准确性
  • 搭建 FastAPI 接口服务及 Streamlit 前端,支持用户实时上传、提问、查看回答与引用来源
  • 项目结构清晰,便于扩展至多模态或多Agent问答系统,具备完整部署能力

技术栈:LangChain、Qwen、FAISS、HuggingFace、PyMuPDF、Streamlit、FastAPI、Transformers

技术技能

编程语言

Python C++

开发工具

Docker Linux Git Jupyter Notebook Google Colab Weights & Biases SwanLab

证书

CET-4 CET-6

深度学习

PyTorch Scikit-learn OpenCV

数据处理

Pandas NumPy Matplotlib Seaborn

自然语言处理

NLTK Transformers BERT GPT Qwen

语言能力

中文 母语
英语 CET-6