이번에 Stable Diffusion이라는 모델이 오픈소스로 나왔다고 해서 한번 실제로 사용해봤다!
유튜버 조코딩님의 영상을 참고하며 진행하였습니다.
1. 먼저 아래 깃허브 주소에 접속하자.
https://github.com/AUTOMATIC1111/stable-diffusion-webui
GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI
Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub.
github.com
2. 우리는 colab을 사용할 것이므로 중간에 Akaibu 버전을 클릭한다!
3. 런타임-런타임 유형 변경-GPU설정은 기본!
4. https://huggingface.co/(딥러닝 모델들의 깃허브)에 가입 후 토큰을 생성, 그리고 http:// https://huggingface.co/CompVis/stable-diffusion-v-1-4-original 에서 권한을 허용한다.
5. '여기에 text 입력' 부분에 부여받은 토큰 번호를 입력 후 쭈욱 실행
6. 그러면 여기서 이런 에러가 나온다.
'stable-diffusion-webui' 폴더를 찾지 못한다는 것 같은데.. 경로를 다시 설정해주자.
%pwd 명령어를 사용해서 나온 현재 위치를 stable-diffusion-webui 대신 적으니 에러없이 넘어갈 수 있었다!
7. 남은 모든 셀을 진행하자!!
빨간색 밑줄 친 부분은 이후 나올 webui의 '아이다:비밀번호'이므로 편하게 설정하자.(기본값 me:qwerty)
국룰의 1q2w3e4r!....
이후 검은색 동그라미 친 주소를 누르면 UI로 넘어간다!
8. 아까 설정한 아이디 비밀번호를 누르고
9. UI에서 원하는만큼 Stable-Diffusion을 즐기자!
10. 실제 사용기(text2img, img2img)
WOW..! 너무너무 멋있는 작품이 뚝딱 완성된다!!
상당히 고퀄이지만 내 마음 속의 이미지를 그대로 그리지는 못했다는 아쉬움이 사알짝 있었다.
그래서 사용해본 img2img 기능!
내 발로 그린듯한 작품이 stable-diffusion을 통하니 그럴싸해졌다!
text2img만으로는 내가 머릿속 안의 이미지를 정확하게 구현하기 힘들다고 느꼈는데 img2img를 사용해보니 이제 정말 내가 원하는 이미지를 '직접', '간단하게', '고퀄'로 만들 수 있겠다는 생각이 든다!
이 모델뿐만 아니라 구글, 메타 등의 머기업들이 text-to-3d, text-to-video 등의 새로운 모델들이 속속히 내놓고 있다. 이러한 추세를 보면 앞으로는 이미지, 영상을 넘어 창작이라는 영역 전반에 인공지능이가 한자리 차지할 것이 틀림없다. 이러한 새로운 패러다임에서 적재적소에 인공지능을 사용할 수 있는 그러한 능력을 키우는 것이 굉장히 중요할 것 같다.
Tip) https://lexica.art/
위 사이트에서는 StableDiffusion으로 만든 여러 이미지들이 올라와있다.
원하는 이미지를 만들기 위한 검색어들을 참고하기 좋아요~