금요일까지 면접결과 안날아와서..
질문답변 틀리고 어버버 버렸던 면접복기에 이불좀 차고 시무룩좀 하고

다시 만들던 1인 게임개발 하고있었다.
메인게임 기능은 다 만들었고 상점구매기능까지 완성했다. 
이 후 난이도 조절이랑 메타퀘스트 사양에서 잘 돌아가게 하기위한 게임디자인을 하고있었다.
늘 그렇듯 메타퀘스트.. 사양이 아무리 좋아도 패스쓰루 기능쓰면 배터리소모랑 프레임드랍이 심해서
오브젝트 많이 못올린다.

전에 회사를 다니던 때에도 1인게임 개발은 언제나 가슴속에 두고있었으니까.
사람은 희망에 죽고 사는 동물이니까 이렇게라도 해야 멘탈이 잡힌다.

토요일에 기술과제를 받았다.
금요일까지 일하시다가 쉬는날인데도 토요일에 보내주신거겠지.
고생이 많으시구나. 

우리가 모델링툴에서 자주 사용하는 미러링기능을 만드는건데.

2017~18년 대학교때 그래픽스 과제할 때 했던걸 이제와서 다시 붙잡으려고하니까 기억도 안나서 사실 좀 겁난다.
수학 너무 어렵고 머리빠지고 실전투입이 바로 되는 천상계아니면 취업 안되는 현실을 아니까.
그래픽스 프로그래머보다 클라로 간건데 ㅠ
근데 어쩌겠는가.. 어떻게든 해야지.. 해봤는데 실력 안되는거니 겸허히 받아들이고.

 

곰곰히 생각해보다.

 

그냥 오브젝트 복사해서 만들고 스케일만 -1 곱해서 반전시키면
별도 무거운 연산없이 되는거 아닌가..? 라는 잔머리를 굴렸지만
문제내는 사람의 의도는 그게 아니니까 ㅜ 

크게 정리.

각 축에따라서 버텍스에 해당하는 값에다가
2차원에서는 그 축을 제외한 좌표값에만 음수를 곱하면되지만
3차원에서는  폴리곤을 그린 후 법선벡터까지 올바르게 넣어야 겉면이 표시된다..

그림판과 마우스로 그리느라 힘들었다.


1.메쉬필터에서 메쉬정보(버텍스,노말) 가져오기.
2.각 축에 대해 버텍스에 음수 곱해서 좌표 반전.

3.버텍스 노말에도 동일하게 음수 곱하여 바라보는 방향 반전시키기.

4.음수를 곱하여 메쉬의 법선벡터가 반전됨으로 인해 메쉬의 표면이 안쪽을 향하게 되어 표면이 뒤집힘.
5.각 폴리곤 tris의 정점의 두번째,세번째의 위치를 스와핑해서 면을 뒤집어 표면을 뒤집기.

6. 5번의 과정을 반복하여 나온 결과물들을 생성한 미러 메쉬에 할당.

7.위치에 -1를 곱해서 좌표값 반전.

8.축에 해당하는 축에 -1 를 곱해서 회전값 반전. w축에도 하지않으면 반전안됨.

9.스케일 조정 ..etc 

여러개의 오브젝트 미러링기능 확장하기.

원본,미러링 오브젝트의
메쉬필터와 렌더러를 어떻게 관리하는게 효율적일지 고민을 좀 오래했다.
1:1 매핑이 문제인데. 딕셔너리는 키값하나에 하나에 밸류밖에 안되니 결국 인덱스
기반으로 여러개 만들어서 여러번 돌려야하니
그냥 클래스로 묶어서 foreach 돌리기로 결정.



코드도 20줄 내외로 변경했고 너무 간편하게 구현했다

깃허브에 올려야지

'Unity 3D > Technical' 카테고리의 다른 글

Text Mesh Pro 한글폰트 제작방법  (0) 2023.01.02
 

텐센트 혼원3D 2.0 출시 - 고품질 3D 자산 생성 시스템 | ComfyUI Wiki

텐센트는 텍스트와 이미지를 기반으로 고해상도 3D 자산을 생성하는 두 단계 프로세스를 갖춘 혼원3D 2.0 시스템을 출시했습니다.

comfyui-wiki.com

모델러 없이 모델링 뽑기 스터디중 발견했던 방법을 행동에 옮겨보기로 했다.

빠르게 컴피UI(포터블) 최신버전 설치+ 그외 필요한 커스텀노드 쫙 깔아주고.
설치는 전부 깃헙에 써있는 인스톨방법을 PC 사양에 맞게 따르면된다.

https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file#installing

 

GitHub - comfyanonymous/ComfyUI: The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface

The most powerful and modular diffusion model GUI, api and backend with a graph/nodes interface. - comfyanonymous/ComfyUI

github.com

https://github.com/kijai/ComfyUI-Hunyuan3DWrapper

 

GitHub - kijai/ComfyUI-Hunyuan3DWrapper

Contribute to kijai/ComfyUI-Hunyuan3DWrapper development by creating an account on GitHub.

github.com

https://github.com/MrForExample/ComfyUI-3D-Pack

 

GitHub - MrForExample/ComfyUI-3D-Pack: An extensive node suite that enables ComfyUI to process 3D inputs (Mesh & UV Texture, etc

An extensive node suite that enables ComfyUI to process 3D inputs (Mesh & UV Texture, etc) using cutting edge algorithms (3DGS, NeRF, etc.) - MrForExample/ComfyUI-3D-Pack

github.com

https://github.com/ltdrdata/ComfyUI-Manager

 

GitHub - ltdrdata/ComfyUI-Manager: ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers manag

ComfyUI-Manager is an extension designed to enhance the usability of ComfyUI. It offers management functions to install, remove, disable, and enable various custom nodes of ComfyUI. Furthermore, th...

github.com

 

 

혹시 몰라 전후측면이미지가 필요한것과 아닌 모델 두개 전부 다운받았다. 

 

 


다 다운받았으면 
공식 도큐를 참고해서 만들어보자.

https://docs.comfy.org/tutorials/3d/hunyuan3D-2

 

ComfyUI Hunyuan3D-2 Examples - ComfyUI

ComfyUI now natively supports Hunyuan3D-2mv, but does not yet support texture and material generation. Please make sure you have updated to the latest version of ComfyUI before starting. The workflow example PNG images in this tutorial contain workflow JSO

docs.comfy.org

 

 


툰쉐이더..목적으로 만들어진 모델이지만  귀여운 멍뭉이 실사 사진을 넣어본다.

??? 실사는 안되나보다..



텍스쳐가 왜 안되지?했는데.

아직 안된다고한다..ㅜ

이래서 Wrapper를 쓰는구나 싶다.

cpu - 9700f
ram - ddr4 - 32g
gpu - rtx2070 super
환경에서 하나 만드는데 2분. 걸렸다



참고 튜토리얼이 아닌 과정 기록용이기 때문에 

혹시 튜토리얼을 찾다가 유입하셨다면 아래 유튜브를 보고 따라해보시길 바랍니다!
이글을 작성한 때 버전보다 옛날버전 영상이라 뭔가 안된다면 직접 찾으셔야합니다.
https://www.youtube.com/watch?v=zqTTYYqHBhc&ab_channel=MDMZ 

 

게임에 사용할 슬라임 모델링을 찾는데 모델러 찾고.. 인건비도 비싸고 해서.. 잠깐 2시간 서칭해서 만들어본 과정과 후기.

1. 클로드에서 만들고싶은 슬라임을 묘사해서 프롬프트를 요청한다.

2. 그대로 생성형 AI 웹에 들고가서 생성버튼을 딸깍.

https://labs.google/fx/ko/tools/image-fx


3.대강 맘에 든다면 hyper3D에 들어가서 생성된 이미지를 드래그 앤 드롭하고 메쉬생성을 딸깍.

https://hyper3d.ai/rodin/1c3e7a53-8f7f-43af-ac6a-5f2b453ca18d

 

Hyper3D

 

hyper3d.ai

 


하면 이렇게 메쉬를 만들어준다.
다른 추가옵션중에 gameReady를 하고싶었는데 돈내야했다.

4. 마지막으로 텍스쳐를 만들어달라고 딸깍.
https://hyper3d.ai/imageto3d/b6a3ae67-fda7-48c2-837a-cd669cae92ec

 

 

 

Hyper3D

 

hyper3d.ai

그러면 메쉬와함께 택스쳐가 매핑된 3D 모델이 생성된다.

5.  스케치팹에 업로드 해보았다.

 

a Cute Slime - 3D model by gksthf2845 - Sketchfab

My Slime name is Muyaho

sketchfab.com

 


총평.
대단하다.
내가 모델러였으면 처음에 구,정육면체에서 시작했던 과정을 많이 생략할 것 같다.

다만 폴리곤 조절은 돈이 있어야하고
애니메이션은 따로 리깅을해야하니 요즘처럼 유저들의 눈이 높아진 시대에서
당장 인력없이 게임에 쓰기는 어려울 것 같다.


쿠키.
2018년도 대학생 때 3D MAX로 만들었던 미소녀가 있다.
저거 한 달동안 버텍스 깎고 리깅하고 그랬는데.
저 때 퀄리티랑 비교하면 이젠 그럴 필요가 없다는게 기분이 이상하다.

 

 

번외로 텐센트에서 3D모델을  생성하는 모델을 제작했는데 나중에 한번 사용해볼것.
https://comfyui-wiki.com/ko/news/2025-03-19-tencent-hunyuan3d-2-release

 

텐센트 혼원3D 2.0 출시 - 고품질 3D 자산 생성 시스템 | ComfyUI Wiki

텐센트는 텍스트와 이미지를 기반으로 고해상도 3D 자산을 생성하는 두 단계 프로세스를 갖춘 혼원3D 2.0 시스템을 출시했습니다.

comfyui-wiki.com

스테이블 디퓨전 https://comfyui-wiki.com/ko/news/2025-03-20-stdgen

 

StdGEN: 단일 이미지에서 의미적으로 분해된 3D 캐릭터 생성 | ComfyUI Wiki

칭화대학교와 텐센트 AI 연구소가 공동으로 StdGEN을 발표, 단일 이미지에서 신체, 의복, 머리카락 등 구성 요소가 분리된 고품질 의미 분해 3D 캐릭터를 생성하는 혁신적인 파이프라인 제공

comfyui-wiki.com



커서나 클로드로 블렌더MCP 연결해서 모델링하기.

아직은 간단한 오브젝트 배치수준이지만. 2년 안으로 스컬핑까지 가능하지 않게될까 싶다..
https://www.youtube.com/watch?v=RjOMs1AyW1w&ab_channel=%E5%BA%9F%E6%89%8D%E4%BF%B1%E4%B9%90%E9%83%A8Club

 

v74가 되어서야 했네요.
개인정보다 뭐다 해서 영원히 안해줄줄 알았는데..
근데 분명히 사용자의 카메라를 녹화해서 서버에 저장하는 회사나 개발자.. 분명 한 명은 나올 것 같다고 생각했는데
그래서 그런지 해당기능을 포함한 어플리케이션은 메타스토어에 업로드하지 못하게 막아놨다.

심지어 유니티 센티스, OPEN AI와 api 연동도된다.
이제 진짜 컨텐츠 아이디어 싸움이다.


https://developers.meta.com/horizon/documentation/unity/unity-pca-documentation

 

Implementation using WebCamTexture

This section describes how to access the Passthrough Camera API using the Unity WebCamTexture and the complimentary helper classes that offer advanced data access like camera intrinsics / extrinsics.

developers.meta.com

https://github.com/oculus-samples/Unity-PassthroughCameraApiSamples

 

GitHub - oculus-samples/Unity-PassthroughCameraApiSamples: A Sample Project for Passthrough Camera API in Unity.

A Sample Project for Passthrough Camera API in Unity. - oculus-samples/Unity-PassthroughCameraApiSamples

github.com


https://github.com/xrdevrob/QuestCameraKit

 

GitHub - xrdevrob/QuestCameraKit: QuestVisionKit is a collection of template and reference projects demonstrating how to use Met

QuestVisionKit is a collection of template and reference projects demonstrating how to use Meta Quest’s new Passthrough Camera API for advanced AR/VR vision, tracking, and shader effects. - xrdevro...

github.com

 

 

스테이지 시작 이벤트가 자꾸 두번 불러와지는 버그때문에 
스크립트가 잘못된줄 알고 콜스택 디버깅을 수십번했다..

싱글톤이 아니더라도 내가 어디오브젝트에서 불러지고있는지
매니저클래스를 만들때는 초기화할때 어느 오브젝트인지 네임 디버그라도 띄우도록 하자..
왜 저기다 매니저를 붙여놨을까.. 아무리생각해봐도 기억이 안난다.

과거로 갈수록 자신은 점점 멍청하고
현재의 나는 미래로 갈수록 똑똑해진다..

이유는 간단합니다.

물리연산이 안됩니다.
프레임마다 이미지추론으로 손을 인식해 오브젝트의 좌표를 순간이동시키는 방식으로
구현되었다고 점점 확신이 듭니다.
문제는 인식방식보다. 순간이동이라는게 문제입니다.

메타퀘스트3를 사용해서 만들고 있는데.
손을 격렬하게 움직이는 경우 손을 인식하지 못해서 프레임간 이동좌표를 스킵하거나 없는처리를 해버립니다.
이렇게 데이터스트림이 일정하게 출력되지 않는경우.

이전프레임의 좌표와 현재프레임의 좌표를 비교해서 벡터연산을해 가속도를 뽑아내는게 안되고.
3프레임 ~ 5프레임 이전 값까지 불러와도 없어진 만큼의 데이터 공백이 잘못된 방향벡터를 가져옵니다.
진짜 엄청 삽질 하다가 답답해서 던져버린 상태입니다.

만약 이 글을 보는 미래 XR개발자나 기획자가 계시다면 참고하시길 바라며.

중국거는 신뢰성 이슈로 못쓰겠고. (그래도 모종의 이유로 나중에 쓰게되겠지만..)
이번에 업데이트 된 클로드 3.7로 깃허브에서 옛날에 사용했던 프로젝트의 코드들을 올리고 
클래스 다이어그램을 만들어 달라고 했다.

옛날에 회사에서 지원사업 딴다고 디자인패턴 공부하면서 하나하나 다 그려가면서
했던거를 이제는 딸깍으로 된다
진짜 어이가 없지만 이거는 노가다 작업이었으니 개발자 입장에서는 편하다.

나는 설계만하면 되고 시각화는 AI가 해주니 일이 줄어들었지만.
진짜 가면 갈 수록 사람이 필요 할 일이 줄어드니 취업문 좁아지겠다ㅠ 


심지어 그냥 "멋있게" 라는 추상적인 말을 했는데도
알아서 있어보이고 보기 힘들도록 복잡하게 만들어주기도 한다. 

 

 

1. 뎁스카메라.

1.Zed카메라 2i ( 최신제 738달러 배송비 제외 풀옵션 약 120만원 )

특징: 지속적으로 업데이트하여 해가 지날 수록 여러종류의 신제품이 나오고 있으며 그에따라

unity에 제공하는 SDK또한 지속적으로 업데이트되고있어 신기능개발에 유망함.

https://search.shopping.naver.com/search/all?query=zed camera 2i&prevQuery=zed \camera 2i

2.azure kinect DK (쿠팡 78만원 , 네이버스토어 약 60~80만원대 )

특징: 마소가 만들고 준수한 성능에 이용자가 많아 자료찾기가 쉬우나3년 가까이 업데이트가 없음.
4만원대 SDK 따로 구매 필요

(해외배송기간 1~2주 통관비용 7만원 포함 68.5만원)

[해외]애저 키넥트 Azure Kinect DK 마이크로소프트 미국정품 : 케이지몰

국내 당일 발송 (78.5만원)

애저 키넥트 Azure Kinect DK 개발자 키트 - 국내 당일발송 - 추가금 X : 구팡

2. 라이다센서

국내 벽면터치에 사용하는 인터렉티브 코리아에서 사용하는 라이다센서 중국제품 RPlidar 30만원대,
일본제품 호쿠요센서 250만원대. 국내 유통이 잘 안되는것으로보아 고장시 하드웨어 수급문제가 있을것으로 예상. 

 

+ Recent posts