V
Velopers
모든 블로그모든 태그공지
로그인
필터 1
대규모 서비스 환경에서의 이미지 콘텐츠 모더레이션(feat. 멀티모달 LLM)
라인
· 3월 30일
AI

대규모 서비스 환경에서의 이미지 콘텐츠 모더레이션(feat. 멀티모달 LLM)

#vllm#멀티모달 llm
250
SageMaker AI로 해보는 GPT-OSS 추론 성능 테스트와 용량 산정
AWS
· 10월 24일
AI

SageMaker AI로 해보는 GPT-OSS 추론 성능 테스트와 용량 산정

#GPU#LLM
570
vLLM의 기술적 혁신과 성능 향상 이야기
데보션
· 4월 28일
AI

vLLM의 기술적 혁신과 성능 향상 이야기

#GPU#LLM
650
LLM 기반 서비스의 부하테스트
데보션
· 4월 24일
백엔드

LLM 기반 서비스의 부하테스트

#LLM#서비스
870
vLLM로 효율적인 모델 서빙하기
데보션
· 2월 12일
AI

vLLM로 효율적인 모델 서빙하기

#LLM#vllm
700
LLM 쉽고 빠르게 서빙하기
토스
· 11월 26일
AI

LLM 쉽고 빠르게 서빙하기

#Kubernetes#LLM
250

끝