Skip to content
GitLab
探索
登录
主导航
搜索或转到…
项目
P
pythia-2.8b
管理
动态
成员
标记
计划
议题
0
议题看板
里程碑
迭代
Wiki
代码
合并请求
0
仓库
分支
提交
标签
仓库图
比较修订版本
代码片段
锁定的文件
构建
流水线
作业
流水线计划
产物
部署
发布
软件包库
运维
环境
Terraform 模块
监控
事件
服务台
分析
价值流分析
Contributor analytics
CI/CD 分析
仓库分析
代码评审分析
议题分析
模型实验
帮助
帮助
支持
GitLab 文档
比较 GitLab 各版本
社区论坛
为极狐GitLab 提交贡献
提交反馈
快捷键
?
支持
扫描加入微信群:
1. 获取企业级DevOps解决方案支持
2. 免费或折扣极狐GitLab 官方培训认证
代码片段
群组
项目
AIModels
pythia-2.8b
分支图
6ad7cc6183fc69e19276f9a6075a47d03eb4761d
选择Git版本
分支
20
main
默认
step0
step1
step1000
step10000
step100000
step101000
step102000
step103000
step104000
step105000
step106000
step107000
step108000
step109000
step11000
step110000
step111000
step112000
step113000
可以使用方向键移动图形。
从选定的提交开始
Created with Raphaël 2.2.0
9
Jun
8
3
Apr
29
Mar
14
Feb
13
Adding `safetensors` variant of this model (#2)
main upstream/m…
main upstream/main
fix batch sizes and add paper
Upload tokenizer_config.json
Upload special_tokens_map.json
Upload config.json
Upload pytorch_model.bin
Upload tokenizer.json
Upload tokenizer_config.json
step143000 upst…
step143000 upstream/step143000
Upload special_tokens_map.json
Upload config.json
Upload pytorch_model.bin
Upload tokenizer.json
create updated readme
Upload special_tokens_map.json
Upload tokenizer_config.json
Upload pytorch_model.bin
Upload config.json
Upload tokenizer.json
Upload pytorch_model.bin
step142000 upst…
step142000 upstream/step142000
Upload config.json
Upload special_tokens_map.json
Upload tokenizer_config.json
Upload tokenizer.json
Upload special_tokens_map.json
step141000 upst…
step141000 upstream/step141000
Upload tokenizer.json
Upload tokenizer_config.json
Upload pytorch_model.bin
Upload config.json
Upload tokenizer.json
step140000 upst…
step140000 upstream/step140000
Upload tokenizer_config.json
Upload special_tokens_map.json
Upload pytorch_model.bin
Upload config.json
Upload tokenizer.json
step139000 upst…
step139000 upstream/step139000
Upload special_tokens_map.json
Upload config.json
Upload pytorch_model.bin
Upload tokenizer_config.json
Upload config.json
step138000 upst…
step138000 upstream/step138000
Upload tokenizer.json