https://velog.io/@jw3418/python%EC%9C%BC%EB%A1%9C-daemon-scheduler-%EA%B5%AC%ED%98%84 python으로 daemon scheduler 구현 데이터 자동 추가를 위해 linux crontab을 이용하려 했는데, 실행하고자 하는 crawling.py 파일에 외부 라이브러리가 많아서 그런지 (crontab 파일에 따로 library path를 추가해야 할듯?) crontab이 매달 실행 velog.io 참고 블로그 def job_function(): subprocess.run(args=[sys.executable, "./main.py"]) sched = BackgroundScheduler(timezone='Asia/Seoul') # interv..
# enabled = False 일 경우 QComboBox:disabled{ background-color: #e0e0e0; border: 2px solid #e0e0e0; } # 기본 style QComboBox{ border: 2px solid #e0e0e0; } # 드롭다운 화살표 style QComboBox::down-arrow{ image: url(:/icon/icon/down-arrow.png); } # 드롭다운 화살표 버튼 style QComboBox::drop-down:button{ background-color: transparent; }
# create user = User( name="kim", age=1) db.add(user) db.commit() db.refresh(user) # read user_list = db.query(User) # update db_user = db.get(User, user.id) user_data = user.dict(exclude_unset=True) for key, value in user_data.items(): setattr(db_user, key, value) db.add(db_user) db.commit() db.refresh(db_user) # delete db.query(User).delete() db.commit()
label.setOpenExternalLinks(True) 라벨에 외부링크 설정값을 True 로 바꿔준다.