角色 | 主机名 | ip | 系统 | 资源最低要求 |
---|---|---|---|---|
Harbor1 nginx Keepalived1 | harbor1 | 192.168.48.106 | OpenEuler22.03LTS | CPU:4核 内存:8G 硬盘:40G |
Harbor2 nginx Keepalived2 | harbor2 | 192.168.48.107 | OpenEuler22.03LTS | CPU:4核 内存:8G 硬盘:40G |
postgresql Redis NFS共享 | zujian | 192.168.48.108 | OpenEuler22.03LTS | CPU:4核 内存:8G 硬盘:40G |
高可用ip | 192.168.48.100 |
请各位大佬帮我看看啥问题。
以上是我的harbor集群,我在安装前将harbor.yml里的harbor密码改成123456,首次安装harbor,执行install.sh后,在页面提示我说用户名或密码不对,后来,我在psql去试一下改了admin的密码都不行。
以下是网上的方法:(仍然不行)
update harbor_user set salt='', password='' where username='admin';
重新启动Harbor私有镜像仓库后,密码就会自动重置为之前安装时配置的Harbor12345
\q
exit
哪怕是我重新安装harbor,yml里的密码不改,直接安装,还是显示我密码错误。
包括网上说的浏览器的cookie的问题,要清除,也不行,换浏览器也不行。
重启docker,重启仓库也不行
以下是我的harbor.yml
hostname: 192.168.48.106 #harbor1
http:
port: 8081
#https: #先注释https协议,后面再实现
# port: 443
# certificate: /your/certificate/path
# private_key: /your/private/key/path
## 启用外部代理,启用后hostname将不再使用
external_url: 192.168.48.100:80
#harbor页面密码
harbor_admin_password: Harbor12345
#配置NFS共享存储
data_volume: /data/harbor_data
_version: 2.9.0
#配置数据库
external_database:
harbor:
host: 192.168.48.108 # 数据库主机地址
port: 5432 # 数据库端口
db_name: registry # 数据库名称
username: postgres # 连接该数据库的用户名
password: 123456 # 连接数据库的密码
ssl_mode: disable
max_idle_conns: 2
max_open_conns: 0
notary_server:
host: 192.168.48.108
port: 3306
db_name: notary_server
username: root
password: 123456
ssl_mode: disable
notary_signer:
host: 192.168.48.108
port: 3306
db_name: notary_signer
username: root
password: 123456
ssl_mode: disable
#配置redis
external_redis:
host: 192.168.48.108:6379 #redis服务IP地址和端口号
password: 123456 #连接外部redis服务的密码
registry_db_index: 1
jobservice_db_index: 2 #job服务的数据库索引
chartmuseum_db_index: 3 #chartmuseum插件的Redis索引
trivy_db_index: 5 #Trivy扫描器的数据索引
idle_timeout_seconds: 30 #超时时间
#启用metrics数据采集插件
metric:
enabled: false
port: 9090
path: /metrics
trivy:
ignore_unfixed: false
skip_update: false
skip_java_db_update: false
offline_scan: false
security_check: vuln
insecure: false
jobservice:
max_job_workers: 10
job_loggers:
- STD_OUTPUT
- FILE
logger_sweeper_duration: 1 #days
notification:
webhook_job_max_retry: 3
webhook_job_http_client_timeout: 3 #seconds
log:
level: info
local:
rotate_count: 50
rotate_size: 200M
location: /var/log/harbor
proxy:
http_proxy:
https_proxy:
no_proxy:
components:
- core
- jobservice
- trivy
upload_purging:
enabled: true
age: 168h
interval: 24h
dryrun: false
cache:
enabled: false
expire_hours: 24
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。