Daily Briefing

0 papers
42 articles
2026. 04. 24. 마지막 갱신 10:22 · 5분 자동 새로고침
현재 표시 중
01
연합뉴스 ON AIR

'평양무인기 의혹' 尹·김용현 일반이적 혐의 오늘 1심변론 종결

Fri, 24 Apr 2026

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

02
GeekNews ON AIR

모델에서 직접 라이브 스트리밍되는 웹사이트

2026-04-23T23:36

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

03
cs.CLcs.AIcs.SDON AIR

SpeechParaling-Bench: A Comprehensive Benchmark for Paralinguistic-Aware Speech Generation

Ruohan Liu, Shukang Yin, Tao Wang et al. · 2026-04-22

Paralinguistic cues are essential for natural human-computer interaction, yet their evaluation in Large Audio-Language Models (LALMs) remains limited by coarse feature coverage and the inherent subjectivity of assessment. To address these challenges, we introduce SpeechParaling-Bench, a comprehensive benchmark for paralinguistic-aware speech generation. It expands existing coverage from fewer than 50 to over 100 fine-grained features, supported by more than 1,000 English-Chinese parallel speech queries, and is organized into three progressively challenging tasks: fine-grained control, intra-utterance variation, and context-aware adaptation. To enable reliable evaluation, we further develop a pairwise comparison pipeline, in which candidate responses are evaluated against a fixed baseline by an LALM-based judge. By framing evaluation as relative preference rather than absolute scoring, this approach mitigates subjectivity and yields more stable and scalable assessments without costly human annotation. Extensive experiments reveal substantial limitations in current LALMs. Even leading proprietary models struggle with comprehensive static control and dynamic modulation of paralinguistic features, while failure to correctly interpret paralinguistic cues accounts for 43.3% of errors in situational dialogue. These findings underscore the need for more robust paralinguistic modeling toward human-aligned voice assistants.

더 많은 기사 · 논문
핫뉴스
01
연합뉴스

서울청, 듀오 43만명 개인정보 유출 수사중…몸무게·혈액형까지

Fri, 24 Apr 2026

(서울=연합뉴스) 이율립 기자 = 결혼정보회사인 듀오정보(듀오)에서 회원 약 43만명의 개인정보가 유출된 사건을 서울경찰청 사이버수사대가 수사 중이다.

24일 경찰에 따르면 서울경찰청 사이버수사대는 듀오 측이 지난해 2월 4일 서울 강남경찰서에 접수한 피해 신고를 이튿날 이송받아 현재까지 수사를 진행하고 있다.

경찰은 관련 자료를 확보해 정보통신망법 위반 혐의를 중심으로 유출 경로 등을 들여다보고 있다.

개인정보보호위원회는 작년 1월 듀오에서 개인정보를 취급하는 직원의 업무용 컴퓨터가 해킹당해 정회원 42만7천464명의 개인정보가 외부로 유출됐다고 전날 발표했다.

유출된 개인정보는 아이디, 비밀번호, 이름, 생년월일, 주민등록번호, 성별, 이메일주소, 휴대 전화번호, 주소, 신장, 체중, 혈액형, 종교, 취미, 혼인경력, 형제 관계, 장남·장녀 여부, 학교명, 전공, 입학 연도, 졸업 연도, 학교 소재지, 입사 연월, 직장명 등이다.

개인정보위는 듀오에 과징금 11억9천700만원, 과태료 1천320만원을 부과하고, 개인정보가 유출된 회원에게 즉각 유출 사실을 통지하라고 명령했다.

2yulrip@yna.co.kr

제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지> 2026년04월24일 10시15분 송고

02
연합뉴스

의정부시 "지방세 환급금 찾아가세요"…총 5억6천만원

Fri, 24 Apr 2026

(의정부=연합뉴스) 김도윤 기자 = 경기 의정부시는 다음 달 말까지를 '지방세 환급금 일제 정리 기간'으로 정했다고 24일 밝혔다.

지방세 환급금은 자동차세 연납 후 소유권 이전 또는 폐차·말소, 지방소득세 국세 경정, 착오 신고 등의 이유로 매년 발생하고 있다.

현재 의정부 지역 미환급금은 약 1만3천건, 총 5억6천만원에 달한다.

미환급금은 위택스(www.wetax.go.kr)나 카카오톡 채널 '의정부시 지방세 상담' 등에서 조회할 수 있다.

지방세 환급금은 발생일로부터 5년이 지나면 청구권이 소멸한다.

kyoon@yna.co.kr

제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지> 2026년04월24일 10시15분 송고

03
연합뉴스

전북도, 탐방로 조성·LPG 공급 등 '섬 발전사업' 51억원 투입

Fri, 24 Apr 2026

(전주=연합뉴스) 임채두 기자 = 전북특별자치도가 섬 정주 여건 개선과 지역경제 발전을 위한 '섬 발전사업'에 51억원을 투입한다고 24일 밝혔다.

이는 제4차 섬 종합개발계획(2018∼2027년)의 하나로 주민 생활 기반 마련, 관광으로 인한 주민 소득 창출 등을 염두에 둔 사업이다.

먼저 군산 명도∼방축도 탐방로 조성, 신시도 대각산 트레킹코스 개발, 물양장 조성, 선유도 관광 기반 시설·마을안길 정비 등 기반 시설 확충에 16억원이 들어간다.

어청도, 야미도, 신시도 등 6개 섬을 중심으로 마을발전계획을 수립, 소득 사업을 발굴하고 체험 프로그램을 운영하는 데도 17억원을 배정했다.

또 군산 연도와 부안 식도에는 LPG 공급시설을 구축하고 군산 죽도와 고창 외죽도에는 식수·전력·접안 시설을 확충한다.

아울러 전북도는 2028년부터 시작할 제5차 섬 종합개발계획에 대비해 전북연구원과 머리를 맞대고 지역 현안 사업을 찾아낼 방침이다.

최정일 도 건설교통국장은 "섬은 전북의 소중한 해양 영토이자 미래 성장을 이끌어갈 중요한 자산"이라며 "섬 종합개발을 통해 관광 산업 경쟁력을 높이고 체감할 수 있는 주민 복지를 이루겠다"고 말했다.

doo@yna.co.kr

제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지> 2026년04월24일 10시15분 송고

04
연합뉴스

급한 불 껐지만…홈플러스, 회생안 연장 '기로'서 자금 고비

Fri, 24 Apr 2026

우협 선정으로 익스프레스 매각 본궤도…회생안 연장 다음 주 결정

낮은 입찰가에 메리츠 등 지원 변수

(서울=연합뉴스) 조민정 기자 = 기업회생 절차를 밟고 있는 홈플러스가 다음 주 생존을 결정지을 분수령을 맞는다.

홈플러스의 기업형 슈퍼마켓(SSM)인 홈플러스 익스프레스 매각이 우선협상자 선정으로 궤도에 올랐으나, 법원이 설정한 회생계획안 가결 시한이 코앞으로 다가오면서 이를 연장해야 하는 과제를 안게 됐기 때문이다.

메리츠금융그룹을 포함한 채권자협의회의 지원 여부가 마지막 퍼즐로 떠오르고 있다.

◇ 하림 우선협상대상자 선정에 회생 동력 확보

최근 홈플러스와 매각 주관사 삼일회계법인은 홈플러스 익스프레스 매각을 위한 우선협상대상자로 하림그룹(NS홈쇼핑)을 선정했다.

서울회생법원은 앞서 홈플러스 익스프레스 매각 진행 상황을 지켜보겠다며 3월 4일이었던 회생계획안 가결 시한을 5월 4일까지 두 달 연장한 바 있다.

하림그룹이 인수 의지를 보이고 있음에도 실사와 본계약 체결, 자금 납입까지는 수개월이 소요돼 실제 자금 유입까지는 시간이 필요한 상황이다.

이 때문에 회생계획안 가결 시한 추가 연장 가능성도 거론된다.

노동절과 주말, 어린이날 연휴 등을 감안하면 법원의 추가 연장 여부는 사실상 이달 30일 전후 결정될 것으로 보인다. 연장 기간 내 우선협상대상자 선정까지 이뤄지며 매각이 구체화된 만큼 법원이 일정 재조정에 나설 가능성이 크다는 관측이 나온다.

법원 역시 앞서 예비 입찰 과정에서 매각 상황을 반영한 일정 조정 가능성을 열어둔 바 있다.

다만 매각 대금이 실제 유입되기까지 시차가 존재하는 만큼, 당장 회생계획안 가결에 필요한 유동성을 어떻게 확보할지가 핵심 변수로 꼽힌다.

하림이 제시한 인수 금액이 당초 기대치(3천억원)에 크게 못 미치는 2천억원대 수준으로 전해지면서, 매각 자금 유입 효과가 제한적일 경우 법원이 회생 가능성을 낮게 판단해 회생계획안을 부결할 수 있다는 우려도 일각에서 나온다.

◇ "자금 공백 메워야 산다"…메리츠 등 채권단 변수 부각

앞서 MBK파트너스는 1천억원의 DIP 금융을 실행했으나 지급이 지연됐던 임금과 납품대금 등을 처리하면서 자금이 금세 소진됐다. 홈플러스 익스프레스 매각이 홈플러스 회생에 기여하는 바가 크지 않을 수 있다는 분석이다.

업계 관계자는 24일 연합뉴스와 통화에서 "홈플러스 익스프레스 매각 자금이 유입되어도 회생계획안에 필요한 자금에서 1∼2천억원이 비는 상황으로 알려져 있다"고 전했다.

이 때문에 점포 62개를 담보로 약 1조원 이상의 대출 잔액을 보유한 메리츠금융그룹의 자금 지원에 관심이 쏠린다.

메리츠금융그룹은 홈플러스 전체 회생채권의 약 40%를 보유한 최대 채권자로, 이번 회생 절차의 핵심 변수로 꼽힌다. 노조 등 일각에서는 메리츠가 최근 국회 등 정치권을 상대로 회생절차 연장에 부정적인 입장을 내비치고 있다는 주장도 제기된다.

홈플러스일반노동조합은 이날 메리츠 본사 앞에서 규탄 기자회견을 열고, 홈플러스 익스프레스 매각 자금이 영업 정상화를 위한 재원으로 투입돼야 한다고 주장했다. 아울러 회사가 제안한 2천억원 규모의 브릿지파이낸싱 또는 DIP 대출 등 긴급 운영자금 확보가 필요하다고 강조했다.

메리츠는 내부적으로 DIP 금융 지원을 검토 중이지만 여전히 신중론이 우세한 것으로 전해진다.

추가 자금 지원이 자칫 '밑 빠진 독에 물 붓기'가 될 수 있다는 우려와 함께, 담보 구조상 청산 시 자금 회수 가능성이 더 높다는 판단이 작용한 것으로 풀이된다.

익스프레스 매각이 성사되고 회생계획안이 실행되더라도 '본체'인 홈플러스의 회생 가능성을 장담하기 어렵다는 시각도 적지 않다.

업계 관계자는 "익스프레스 매각은 긍정적인 신호지만 회생의 출발점에 불과하다"며 "결국 단기 유동성 확보와 채권단 설득이 동시에 이뤄져야 회생 시나리오가 작동할 것"이라고 말했다.

chomj@yna.co.kr

제보는 카카오톡 okjebo <저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지> 2026년04월24일 10시14분 송고

05
연합뉴스

안전모 안 쓰고, 2명 타고…전북경찰, PM 단속해 390건 적발

Fri, 24 Apr 2026

전북경찰청은 지난 2월 23일부터 약 2개월간 개인형 이동장치 교통법규 위반 집중 단속을 해 390건을 적발했다고 24일 밝혔다.

전북경찰청은 올해 초 실시한 치안 정책 의견 설문조사에서 PM 단속이 필요하다는 의견이 많음에 따라 도민들의 불편 해소를 위해 집중 단속을 했다.

전북경찰청 관계자는 "PM 이용이 많은 청소년 등을 대상으로 안전 교육도 할 예정"이라며 "단속과 교육을 병행하는 교통안전 대책을 지속해 추진해 나가겠다"고 밝혔다.

전체 내용을 이해하기 위해서는 기사 본문과 함께 읽어야 합니다.

06
연합뉴스

횡성군, '횡성전통시장 장터데이'로 지역 상권 활성화

Fri, 24 Apr 2026

26일∼7월26일까지 5일장마다 다채로운 체험·이벤트 진행

(횡성=연합뉴스) 임보연 기자 = 강원 횡성군이 전통시장 내 고객 유입을 촉진하고 지역 경제에 활력을 불어넣기 위해 오는 26일부터 7월 26일까지 '2026 횡성전통시장 장터데이' 행사를 개최한다.

횡성시장조합이 주관하며, 행사 기간 횡성 오일장(1, 6일)이 서는 날마다 횡성전통시장 동문부터 서문 구간에서 펼쳐진다.

총 20회에 걸쳐 운영되며, 시장 방문객들에게 풍성한 볼거리와 즐길 거리를 제공할 예정이다.

주요 프로그램으로는 다육식물 심기 및 미니 화분 꾸미기(봄맞이 가드닝), 카네이션 증정(가정의 달), 복날 맞이 농특산물 시식(활력 보양) 등 시기별 맞춤형 체험 행사가 마련된다.

특히 당일 시장에서 5천원 이상 구매한 고객에게는 경품권 지급 및 룰렛 이벤트 참여 기회를 제공해 방문객들의 관심과 호응을 얻을 것으로 기대된다.

이영철 군 경제정책과장은 24일 "장터데이가 침체한 전통시장에 생기를 불어넣고, 상인과 고객이 함께 즐겁게 소통하는 장이 되길 바란다"며 "전통시장의 경쟁력을 높이고 지역 경제를 활성화할 수 있는 다양한 정책을 지속해 발굴하겠다"고 말했다.

limbo@yna.co.kr

제보는 카카오톡 okjebo

<저작권자(c) 연합뉴스,

무단 전재-재배포, AI 학습 및 활용 금지>

2026년04월24일 10시12분 송고

07
한국경제

"면세점으로 여행 떠나요"…롯데免, 에스파와 K콘텐츠 마케팅 강화

Fri, 24 Apr 2026

"면세점으로 여행 떠나요"…롯데免, 에스파와 K콘텐츠 마케팅 강화

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

롯데면세점은 23일 'TRIP LOTTE DUTY FREE'를 주제로 한 캠페인을 공개했다. 롯데면세점 자체를 글로벌 여행객이 반드시 찾는 핫플레이스로 자리매김하겠다는 구상이다.

캠페인에 앞서 지난 20일부터 22일까지 롯데면세점 공식 사회관계망서비스(SNS)에 티저 콘텐츠를 공개했다. 공항 플립보드, 기내 방송, 멤버 자필 입국 신고서 등을 활용해 롯데면세점을 여행지로 소개하는 방식이다. 여행지에서 유명 거리나 맛집, 랜드마크 타워를 방문하듯, 롯데면세점을 찾으면 여행을 즐기는 것처럼 다채로운 면세 쇼핑을 누릴 수 있다는 의미다.

영상은 메인 필름 1편과 멤버별 숏츠 4편으로 구성됐다. 에스파 멤버들이 직접 면세 쇼핑 가이드 역할을 맡았다. 카리나는 '가방(BAG) 스트리트', 윈터는 '뷰티 맛집', 닝닝은 '주얼리 스팟', 지젤은 '선글라스 타워'를 각각 소개한다.

롯데면세점은 이번 캠페인을 오프라인 매장으로도 확장할 계획이다. 월드타워점, 부산점, 제주점에 캠페인 테마의 '에피소드 존'과 에스파 멤버 등신대를 설치하고 시내점 전 매장에는 멤버들의 핸드프린팅을 비치할 예정이다.

남궁표 롯데면세점 마케팅부문장은 "에스파와 함께 브랜딩 캠페인을 전개하며 롯데면세점이 단순한 쇼핑 공간을 넘어 한국 여행의 목적지가 되고자 한다"며 "K콘텐츠를 활용한 차별화된 마케팅으로 글로벌 고객 유치에 적극 나설 것"이라고 말했다.

신용현 한경닷컴 기자 yonghyun@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

08
한국경제

OCI홀딩스, 우주 태양광 수요 확대 기대에 15%대 급등

Fri, 24 Apr 2026

OCI홀딩스, 우주 태양광 수요 확대 기대에 15%대 급등

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

이날 오전 9시53분 현재 OCI홀딩스는 전 거래일 대비 3만3000원(10.25%) 오른 35만5000원에 거래되고 있다. 주가는 장 초반 한때 15%대까지 뛰기도 했다.

신홍주 신영증권 연구원은 "올해를 기점으로 OCI홀딩스는 단순 태양광 소재 중심 업체에서 태양광 소재 및 에너지 기업으로 재평가(리레이팅)될 것"이라며 "일론 머스크는 2028년까지 태양광 모듈 생산능력을 100기가와트(GW)까지 확대하겠다고 밝혔다"고 설명했다.

이어 신 연구원은 "수요 강세를 바탕으로 OCI홀딩스는 이번 실적 발표회에서 향후 예상되는 폴리실리콘 장기계약에 기반해 기존 계획 대비 증설 규모를 50% 이상 확대한다고 발표했다"며 "2028년 완공 시 현재 대비 생산능력은 2배로 늘어날 것"이라고 말했다.

이진호 미래에셋증권 연구원도 "이번 실적 발표에서 언급된 폴리실리콘 증설 계획은 스페이스X와의 협업이 순조롭게 진행되고 있다는 힌트였다고 판단한다"고 밝혔다.

그러면서 이 연구원은 "스페이스X의 사업은 국가 산업이기에 중국산 폴리실리콘 사용이 불가하고, 비중국산 폴리실리콘 중에서 OCI홀딩스의 생산단가가 가장 낮고 증설 여력이 존재하기 때문에 OCI홀딩스와의 파트너십 가능성이 높다"고 덧붙였다.

이수 한경닷컴 기자 2su@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

09
한국경제

더보이즈 전속계약 효력 정지 가처분 신청 인용

Fri, 24 Apr 2026

더보이즈 전속계약 효력 정지 가처분 신청 인용

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

더보이즈 상연, 제이콥, 영훈, 현재, 주연, 케빈, 큐, 선우, 에릭의 법률 대리인 법무법인 율촌 김문희 변호사는 23일 "법원은 금일 아티스트(더보이즈 멤버 9인)의 전속계약 효력 정지 가처분 신청을 인용하는 결정을 했다"며 "이에 따라 아티스트는 원헌드레드와의 전속계약이 적법하게 해지돼 그 효력이 종료되었음을 법원의 판단을 통해 확인받았다"고 밝혔다.

김 변호사는 "법원은 소속사가 정산금 지급 의무를 위반하고 정산의 적정성을 검증하기 위한 정산 자료 제공 의무를 이행하지 않았으며 나아가 매니지먼트 지원 및 아티스트 보호 의무 등 전속계약상 핵심 의무를 다하지 못한 사정 등을 종합하여 소속사의 귀책으로 당사자 간 신뢰 관계가 회복하기 어려운 수준으로 파탄에 이르렀음을 인정했다"며 "그간 원헌드레드는 언론과 가처분 사건 절차에서 계약금이 선급금의 성격을 가진다는 주장을 해왔으나 법원은 이를 명시적으로 배척했다"고 했다.

이와 함께 더보이즈가 전속계약 해지 이전에 확정된 스케줄에 한해 "책임감을 갖고 이행하겠다"면서 앞으로 진행될 콘서트는 예정대로 진행된다고 밝혔다.

김소연 한경닷컴 기자 sue123@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

10
한국경제

"화성 대신 달로 가자"…머스크, 스페이스X 목표 전환하나

Fri, 24 Apr 2026

"화성 대신 달로 가자"…머스크, 스페이스X 목표 전환하나

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

22일 뉴욕타임스(NYT)에 따르면 스페이스X는 지난 수년간 인류를 화성에 보내는 것을 핵심 임무로 내세워왔지만 최근 6개월 사이 머스크의 발언과 회사의 사업 방향은 달라졌다는 분석이다.

스페이스X의 원래 목표는 분명했다. 머스크는 회사 설립 1년 뒤인 2003년 포브스 인터뷰에서 지구 밖에 두 번째 자급자족 문명을 세우는 것이 가장 강력한 일이며, 현실적으로 가능한 곳은 화성이라고 말했다. 스페이스X 캘리포니아 호손 캠퍼스 카페에는 화성 정착의 진전을 담은 벽화가 있고, 회사는 ‘화성을 점령하라(Occupy Mars)’ 문구가 적힌 티셔츠도 판매해왔다.

하지만 머스크는 최근에는 화성 도달 목표를 상대적으로 덜 강조하고 있다. 대신 스페이스X가 준비 중인 대형 기업공개를 앞두고 투자자 관심을 끌 수 있는 여러 대형 구상을 내놓고 있다. 그는 이들 사업이 인간이 일하지 않아도 되는 유토피아적 미래에 기여할 것이라고 주장했다.

이번 주 일부 투자자와 펀드매니저들은 기업공개 전 스페이스X의 텍사스와 테네시 시설을 방문해 이 계획을 들여다볼 예정인 것으로 전해졌다. 일부 투자자들은 다음 주 호손 캠퍼스도 방문할 계획이다. 상장을 앞둔 기업의 경영자가 기존 핵심 사업보다 새 목표를 전면에 내세우는 것은 일반적이지 않다. 통상 기업 경영진은 잠재 투자자에게 안정성과 일관성을 보여주려 한다.

투자자 반응은 엇갈린다. 스페이스X 주식을 보유한 투자회사 거버 가와사키의 로스 거버 최고경영자는 이를 “환각적 사업계획”이라고 비판했다. 그는 머스크가 기업공개를 앞두고 흥분을 끌어올리려다 “제정신을 잃었다”고 말했다. 기업 지배구조 전문가들은 머스크의 새 목표가 주주들이 그의 말을 얼마나 신뢰할 수 있는지에 대한 의문을 키운다고 봤다.

브라이언 퀸 보스턴칼리지 법학 교수는 "다른 기업에서 최고경영자가 지키지 못할 약속을 하면 투자자들이 부정적으로 반응하고 오래 버티지 못하는 경우가 많다"고 말했다. 그러나 머스크의 경우 사람들은 그를 믿거나 믿고 싶어 한다고 설명했다. 머스크는 온라인 게시물에서 스페이스X의 ‘우선순위 전환’을 인정했다. 다만 그는 새 목표가 화성 계획을 약화하는 것이 아니라 인류를 다행성 종족으로 만들기 위한 디딤돌이라고 주장했다.

머스크는 지난 2월 직원들에게 보낸 서한에서 "우주 기반 데이터센터를 현실화해 확보하는 역량이 달의 자가 성장 기지, 화성 전체 문명, 궁극적으로 우주 확장을 가능하게 할 것"이라고 밝혔다. 지지자들은 머스크의 일정은 자주 빗나가지만 장기 비전은 큰 기회를 만들어왔다고 본다. 스페이스X 투자자이자 기술 개발을 지원하는 비영리단체 X프라이즈재단 창립자인 피터 디아만디스는 머스크가 방향성에서는 항상 옳았고, 시간표가 틀릴 수는 있지만 결국 도달한다고 말했다.

앞으로 관건은 머스크의 새 구상이 실제 매출과 기술 로드맵으로 연결되는지 여부다. NYT는 "화성 도시라는 장기 목표가 유지되더라도, 상장 과정에서는 AI와 달 사업이 스페이스X의 기업가치와 투자자 신뢰를 좌우하는 전면 변수로 부상하고 있다"고 전했다.

김동현 기자 3code@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

11
한국경제

메디톡스, 2026 글로벌 해부학 워크샵 성료…방콕서 각국 의료진 350여명 초청

Fri, 24 Apr 2026

메디톡스, 2026 글로벌 해부학 워크샵 성료…방콕서 각국 의료진 350여명 초청

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

이번 행사는 4월 22일부터 24일까지 진행됐으며 대만, 일본, 태국, 한국 각국 현지 의료진 350여명이 참석했다. 글로벌 의료진의 접근성이 뛰어나 아시아 의료 허브이자 중동, 유럽까지 확장 가능한 글로벌 게이트웨이로 평가되는 태국 방콕에서의 이번 대규모 글로벌 워크샵 개최를 시작으로 메디톡스는 향후 해부학 이해 기반의 글로벌 워크샵을 정기화해 확대할 방침이다.

행사 첫날인 22일에는 '해부학으로 완성하는 안면·경부 에스테틱(Basic and Essential Anatomical Consideration for the Face and Neck)’을 주제로 톡신·필러 시술의 본질적 경쟁력은 해부학적 이해에 기반한 안전하고 정교한 시술임이 강조됐다. 이번 글로벌 해부학 워크샵의 메인 트레이너는 안면·경부 해부학 분야의 권위자인 김희진 연세대학교 치과대학 교수가 맡아 프로그램을 진행했다.

안면과 경부의 전층 조직 구조 분석을 시작으로 초음파를 활용한 실시간 조직 확인, 부위별 톡신·필러 인젝션 매핑, 합병증 예방 및 임상 대응 전략 등 이론 교육에서 실습까지 한 날 이뤄졌다. 제품 소개나 시술 결과 중심의 일반적인 교육과 달리 의학적 원리와 실제 인체 기반 해부학 실습을 핵심에 둔 프로그램은 참석한 의료진들로부터 높은 평가를 받았다.

김 교수는 "안면 시술의 안전성과 정교함은 결국 해부학적 구조와 제품의 작용 원리에 대한 이해에서 비롯된다"며 "혈관과 신경의 주행, 층별 조직 구조를 정확히 이해하고 안전성과 유효성이 입증된 제품을 사용하는 것은 장기적인 치료 효과와 환자 만족도를 높이는 길"이라고 설명했다. 이어 "특히 반복 시술 시 내성 발생 가능성을 고려해 불필요한 복합 단백질을 최소화한 ‘코어톡스’와 같은 저내성형 톡신을 선택하는 것이 중요하다"고 강조했다.

메디톡스는 이번 행사의 주축이 된 ‘메디톡스 교육·임상 아카데미(Medytox Education & Clinical Academy, MECA)’를 중심으로 체계적인 글로벌 학술 생태계를 구축하는 한편, 다양한 국가의 전문 의료진이 참여할 수 있는 중립적인 학술 플랫폼을 기반으로 해부학 기반의 시술 표준, 치료 기준을 제시하며, 메디컬 에스테틱 리딩 기업으로서 도약을 추진한다는 계획이다.

행사 둘째 날 메디톡스는 태국 현지법인 ‘메디톡스 타일랜드’와 함께 국제 학술대회 ‘ICLAS 2026’ 인더스트리얼 세션에 참가해 한국, 일본, 태국 연자들의 임상 경험을 바탕으로 최신 시술 지견을 발표하며 학술적 교류를 이어갔다.

이날 행사에서는 보툴리눔 톡신 제제와 히알루론산(HA) 필러를 병용한 이마 리프팅, 필러를 활용한 여성 시술, 메디톡스 계열사 뉴메코의 차세대 톡신 제제 ‘뉴럭스(태국 수출명: 메타톡스)’를 활용한 입매와 턱선 시술 노하우를 공유했다. 또한, 태국 시장의 미용 트렌드를 반영해 눈가 주름 개선을 위한 톡신, 필러 병용 시술을 소개해 참석자들의 호응을 끌어내기도 했다.

행사 마지막 날에는 태국 현지법인 ‘메디톡스 타일랜드’ 방문과 더불어 태국 주요 클리닉을 방문해 현지 시스템 운영 전반과 의료 시술 현장을 돌아보며 현지 시장에 대한 이해도를 높였다.

메디톡스 관계자는 "이번 워크샵은 메디톡스가 지향하는 의학적 기준의 방향성을 전 세계 의료진과 직접 나눈 소중한 자리였다”며 “해부학은 메디컬 에스테틱 시술의 출발점이자 안전성, 효과를 동시에 확보할 수 있는 과학적 접근법으로 앞으로 메디톡스는 치료 패러다임을 선도하는 기업으로서 글로벌 메디컬 에스테틱의 새로운 기준을 정의해 나아갈 것"이라고 말했다.

이민형 기자 meaning@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

12
한국경제

트럼프 "이스라엘-레바논 휴전 3주 연장"…공습 이어지는 '반쪽 휴전' [이상은의 워싱턴나우]

Fri, 24 Apr 2026

트럼프 "이스라엘-레바논 휴전 3주 연장"…공습 이어지는 '반쪽 휴전' [이상은의 워싱턴나우]

-

기사 스크랩

-

공유

-

댓글

-

클린뷰

-

프린트

트럼프 대통령은 이날 소셜미디어 트루스소셜에 올린 글에서 자신이 직접 이스라엘과 레바논의 고위급 대표들과 회담을 주재했다며 이같이 전했다. 그는 이날 회담이 “매우 잘 진행됐다”며 “미국은 레바논이 헤즈볼라로부터 스스로를 보호할 수 있도록 협력할 것”이라고 밝혔다.

이번 회담은 지난 14일 워싱턴DC에서 나다 하마데 모아와드 주미 레바논 대사와 예키엘 라이터 주미 이스라엘 대사가 마코 루비오 미 국무장관의 중재 하에 진행한 1차 회담 후 9일 만에 열렸다. 당시 회담은 레바논과 이스라엘이 33년 만에 연 고위급 회담이었으며, 이틀 후인 지난 16일 이스라엘-레바논은 열흘 휴전을 발표했다. 무장세력 헤즈볼라가 이를 따를지에 대한 의구심이 있었으나 이란 측에서 헤즈볼라에게 휴전 참여를 요청하면서 휴전이 성사됐다.

이날 진행된 2차 회담에는 J D 밴스 미국 부통령, 루비오 장관, 마이크 허커비 주이스라엘 미국 대사, 미셀 이사 주레바논 미국 대사 등 미국 측 관계자가 여럿 배석했다. 트럼프 대통령은 “머지않아 이스라엘의 네타냐후 총리와 레바논의 조셉 아운 대통령을 (백악관에서) 맞을 것을 기대한다”며 “매우 역사적인 이번 회담에 참여하게 돼 영광이었다”고 말했다.

당초 10일 휴전은 25일 종료될 예정이었으나 이번 3주 연장으로 내달 중순까지 공식적으로는 휴전 상태가 이어질 것으로 예상된다. 정확히 언제까지의 휴전인지에 대해 트럼프 대통령은 명백히 밝히지 않았다. 지난 10일 휴전이 만료되는 25일을 기준으로 본다면 내달 16일까지, 2차 회담 발표일인 23일을 기준으로 본다면 내달 14일까지라고 해석할 수 있다. 트럼프 대통령이 이를 구체적으로 못박지 않은 것은 상황에 따라 판단을 바꿀 여지를 열어뒀다고도 볼 수 있다.

하지만 휴전 약속에도 불구하고 이스라엘이 지속적으로 헤즈볼라의 주요 거점인 남부 레바논을 공격하고 있다. 합의의 구속력이 강하지 않은 셈이다. 이란은 이것이 휴전합의 위반이라고 반발하고 있으나 이스라엘은 이 지역을 팔레스타인처럼 관리하겠다는 의지를 보이고 있다.

워싱턴=이상은 특파원 selee@hankyung.com

ⓒ 한경닷컴, 무단전재 및 재배포 금지

ADVERTISEMENT

ADVERTISEMENT

테크
13
GeekNews

GPT-5.5

2026-04-24T10:02

NVIDIA에서 GPT-5.5 접근권 상실이 마치 팔다리를 잃는 느낌이라는 말은, 의도보다 훨씬 섬뜩하게 들림

프론티어 코딩 모델 의존 전반에 해당하는 이야기 같고, 성능이 좋아질수록 코딩할 때 금방 기대게 됨

직접 겪어보니 불편한 감정이 큼. 이제는 인내심을 들여 손코딩하기보다 모델로 한 번에 처리하는 쪽이 10배쯤 빠르고, 내 역할도 바뀌었음

많이 돌아가게 만들 수 있다는 건 대단하지만, 토큰이 떨어지면 사실상 일도 멈춤

Claude가 죽었을 때는 억지로 코드 쓰는 것보다 산책하고 오는 편이 더 레버리지가 큼. 한 시간 뒤 Claude가 살아 있으면, LLM이 만든 코드를 붙잡고 수동으로 문제를 풀려다 지치는 것보다 더 많은 진척을 냄

아무튼 이런 상태가 계속 좀 불안함

노동 이론 자체가 LLM 때문에 뒤집히는 느낌임

지금 시장은 노동이 원자화돼 있고 협상력이 약하다는 가정 위에 서 있는데, 자본은 훨씬 큰 협상력을 갖고 노동 가격을 사실상 정해왔음

그런데 그 노동을 더 큰 다른 회사가 제공하고, 그 노동은 전통적 노동과 달리 무기한 공급을 끊을 수도 있다면 어떻게 되겠나

이제 노동이 또 다른 형태의 자본이 됐고, 자본은 밥을 먹지 않아도 됨

자체 모델을 안 쓰는 회사는 그 결과를 몸으로 배우게 될 듯함

라이브러리 추상화를 쓰는 것과 아주 다르지 않다고도 볼 수 있음

더 빨리 만들고, 직접 쓰는 코드는 줄고, 내부 상태 관리나 메모리 관리는 라이브러리가 대신해줌

포인터와 malloc()을 직접 만지는 대신 라이브러리 호출에 의존하는 걸 불편해하는 사람도 있겠지만, 어떤 사람에게는 저수준 문맥 전환에 빠지지 않고 더 높은 수준의 아키텍처에 집중할 수 있게 해주는 해방감이 있음

내 무덤을 너무 빨리 파지 않기 위해 일부러 쓰는 방식이 있음

미리 완성된 답 대신 독립 실행형 CLI나 도구를 만들어 달라고 자주 요청함

어떻게 그런 결론에 도달했는지도 물어서 내 관점을 넓히려 하고, 자기 메타데이터 수준의 분류 방식도 설명하게 함

특히 어려움이 개념 자체보다 레퍼런스 그래프 크기에 있는 대형 코드베이스에서는, 이걸 내 문제 해결력을 개선하는 쪽으로 활용하려 함

로컬 모델이 최신 호스티드 모델과 적당한 격차만 유지하고, 예를 들어 12개월 뒤처지는 정도에 머물며, 로컬 하드웨어도 계속 접근 가능하다면 위험은 제한적일 수 있음

호스티드 모델이 사라지거나 너무 비싸져도 그 약간의 성능 차이만 잃는 셈이기 때문임

물론 이 두 가정 모두 전혀 자명하지는 않아서 그냥 그렇게 되길 바라는 정도임

NVIDIA와 OpenAI 주가 이해관계를 생각하면 저런 말이 나오는 것도 이상하지 않음

그리고 아직도 10배 생산성 구호가 반복되는 건 솔직히 믿기 어려움

GPT-5.5 출시는 오늘이지만, ChatGPT와 Codex 반영은 몇 시간에 걸쳐 점진적으로 진행된다고 함

서비스 안정성을 위해 이전 출시 때처럼 단계적으로 열고, 보통 Pro/Enterprise부터 시작해서 Plus로 내려감

바로 안 보일 수 있으니 나중에 다시 확인하라고 함

랜덤하게 기다려야 해서 짜증날 수는 있지만 안정성을 위해 그렇게 한다고 함

OpenAI에서 일한다고 밝힘

GPT-5.4 API xhigh로 OpenClaw를 돌려봤는데, 모델이 일을 하게 만들 수가 없었음

Anthropic OAuthgate 이후 대체로 써보려 했는데, 빠르고 안전하고 무해한 하위 작업조차 끝내지 못했음

대화가 “여기서 X를 했어야 했네” “맞다, 실패했다” “그럼 지금 해” “그래야 했는데 안 했다” 식으로 끝없이 사과만 반복됐음

나중에 GLM, Kimi, Minimax는 문제 없이 해낸 걸 보면 더 황당했고, 그래서 OpenAI는 바로 버릴 수밖에 없었음

공개용 롤아웃 대시보드가 있으면 혼란이 훨씬 줄어들 듯함

더 나아가 UI에서 모델은 존재하지만 아직 내 계정엔 열리지 않았다는 걸 보여주면 좋겠음

ETA까지 나오면 최고겠지만, 롤아웃 중 문제가 생길 수 있어 예측이 어렵긴 할 듯함

출시 축하함 Images 2.0도 ChatGPT 안에서 같이 풀리는지, 아니면 한동안은 API/Playground 전용 기능이 남는지 궁금함

Plus 사용자 입장에서는 Codex 사용량 한도를 얼마나 먹을지 몰라서 선뜻 써보기 망설여짐

어제 올린 로컬 모델 펠리컨이 이거보다 더 보기 좋았음

그래도 이번 건 다리를 꼬고 있어서 웃기긴 함

이건 솔직히 너무 별로임 5.5 버전이나 나왔는데 아직도 기본적인 자전거 프레임 하나 제대로 못 그리면 어떡하나

앞바퀴가 옆으로 돌아갈 구조가 아닌데 그림이 그걸 못 맞춤

기본 설정이 reasoning tokens 39개만 쓰고 저 정도를 했다는 건 꽤 놀라움

reasoning token이 정확히 뭔지는 모르겠지만, 어쨌든 토큰 수가 충격적으로 적어 보임

이런 직접 API 사용이 약관상 허용되는지 궁금함

Anthropic은 이런 식 사용을 굉장히 싫어했던 걸로 기억함

왜 최근 올린 다른 것들보다 훨씬 못 그리는지 궁금함

어제 올린 Qwen 같은 오픈 웨이트 로컬 모델들조차 더 나아 보였음

다들 Anthropic의 Mythos 게이팅과 CyberGym 83% 마케팅만 얘기했는데, OpenAI는 GPT-5.5를 그냥 내놓았고 점수도 82%임

누구나 써볼 수 있다는 점이 훨씬 중요함

공격/방어 사이버보안 쪽 사람이라면 과장된 홍보보다 이런 실제 공개 모델을 직접 만져보는 게 맞다고 봄

이런 말 하게 될 줄은 몰랐지만, 이제 OpenAI가 다시 더 오픈한 선택지처럼 보임

진짜 하이프는 Anthropic이 Mythos를 발표하자마자 OpenAI가 몇 주 안에 경쟁 모델을 내놓고, Sam은 접근도 막지 않을 거라는 걸 다들 깨달은 데 있었음

그래서 보안 업계가 공포에 휩싸인 건, 새 제로데이를 막을 시간이 사실상 2주 남짓뿐이고 그 뒤엔 블랙햇들이 대거 찾아내 악용하는 오픈 시즌이 열릴 수 있다고 봤기 때문임

Anthropic과 비교하면 OpenAI가 원래부터 더 오픈했음

Anthropic은 공개 모델을 한 번도 낸 적 없고, Claude Code 소스도 자발적으로 공개한 적 없고, 토크나이저도 안 풀었음

나는 하이프 뉴스는 다 무시함

Anthropic은 내게 거의 허풍의 구현체처럼 느껴짐

예전에 Cialdini를 읽고 나서는 Anthropic식 연출이 지루해졌음

반면 OpenAI는 아주 영리함. Claude가 뜨자 한동안 헤드라인에서 사라졌다가, 지금은 거대한 사용자 기반 덕분에 Anthropic의 릴리스 주기만 따라가도 상대를 우스워 보이게 만들 수 있음

Anthropic 입장에선 매번 새 GPT 버전이 나올수록 더 처참해질 듯하고, OpenAI가 완전히 장악하는 그림처럼 보임

API 기준으로 GPT-5.5 가격은 GPT-5.4의 2배, GPT-5.1의 약 4배, Kimi-2.6의 약 10배임

Anthropic 사례를 보고 얻은 교훈이, 개발자는 코딩 에이전트에 금방 의존하고 심지어 중독되기까지 하니 작은 개선만 있어도 얼마든지 돈을 낸다는 거였던 듯함

Codex와 GPT로 만든 3D 던전 아레나 프로토타입은 꽤 그럴듯해 보임

Codex가 게임 아키텍처, TypeScript/Three.js 구현, 전투 시스템, 적 조우, HUD 피드백을 맡고, 환경 텍스처는 GPT가 생성했으며, 캐릭터 모델과 애니메이션은 서드파티 에셋 생성 도구로 만들었다고 함

시각적으로 괜찮은 이유도 아마 메시를 GPT-5.5가 직접 만든 게 아니라 별도 도구가 만들었기 때문일 가능성이 큼

이걸 보면 예전 Flash 시대처럼 게이머나 취미 개발자도 게임 콘셉트를 빠르게 만들고 바로 웹에 공개하는 시대가 오는 듯함

특히 Three.js는 게임 엔진도 아닌데, AI로 게임을 설계하는 데 사실상 핵심 도구처럼 올라오는 분위기임

지난 3년간 Three.js와 AI를 계속 실험해봤는데, 5.4에서 특히 큰 도약을 느꼈음

Three.js 쪽만 놓고 보면 가장 큰 단일 세대 점프였고, 특히 GLSL 셰이더에서 두드러졌으며 여러 페이지/컴포넌트로 나뉜 씬 구조화도 나아졌음

완전한 셰이더를 처음부터 만드는 건 아직 어렵지만, 기존 셰이더를 수정하는 능력은 이제 꽤 쓸 만함

5.2 이하에서는 하나의 배경 캔버스를 여러 라우트에 걸쳐 유지하는 one canvas, multiple page 패턴을 정말 못 했는데, 5.4는 아직 손을 좀 잡아줘야 해도 리팩터링과 최적화 프롬프트에 훨씬 잘 반응함

5.5가 실제로 어떤지 시험해볼 생각에 기대됨

Flash 같은 시대는 이미 한동안 와 있었고, 병목은 늘 창의성이었음

Three.js 기반 게임과 프로젝트에서 LLM 도움을 많이 받아봤고 성과도 좋았음

내가 만든 별난 시계 시각화도 상당 부분 여기에 의존했음

게임 엔진은 아니지만 웹에서 WebGL 3D를 할 때는 사실상 표준이고, 오래된 만큼 학습 데이터도 방대함

LLM 이전에는 좀 더 상위 수준 기능이 많은 Babylon.js를 더 의존했음

LLM은 아직 공간 추론을 못 함

GPT는 안 해봤지만 Claude로는 아무리 프롬프트 엔지니어링을 해도 루빅 큐브를 못 풀었고, Opus 4.6도 퍼즐의 약 70% 정도만 맞추고 막혔음

한 번 시도에 20달러씩 드니 비용도 감당하기 어려움

만약 3차원 추론을 제대로 시킬 수 있다면, 지금 못 푸는 수학 문제들에도 같은 접근을 확장할 수 있을 듯함

내 Rubik's Cube MCP 서버를 공개해서 누가 프롬프트만으로 큐브를 풀 수 있는지 도전하게 해볼까 생각 중임

이번 발표에서 벤치마크보다 더 흥미로운 부분은, Codex가 몇 주치 실제 트래픽 패턴을 분석해 GPU 활용을 높이고, 작업 분할과 밸런싱을 위한 커스텀 휴리스틱 알고리즘을 작성해서 토큰 생성 속도를 20% 이상 끌어올렸다는 대목임

에이전트형 LLM이 이런 식으로 계산 효율 최적화를 해내는 영역은 영향력이 큰데도 벤치마크보다 덜 시험되는 듯함

내 경험상 이 부분은 아직 Opus가 GPT/Codex보다 낫지만, OpenAI가 비용과 용량 압박 속에서 이런 성능 극대화로 실질적 이득을 보고 있으니 앞으로도 계속 이 방향을 밀 것 같음

Rust로 고성능 데이터 처리를 하다가 100배 이상 개선해야 하는 성능 장벽을 만났음

예전에 유명했던 Intel FizzBuzz 코드골프 최적화가 떠올라서, gemini pro에게 내 코드와 함께 “그런 류의 영리한 최적화를 제안해달라”고 했더니 제안이 정말 멋졌음

LLM은 매일같이 계속 놀라게 함

이미 KernelBench가 CUDA 커널 최적화를 테스트하고 있음

그리고 각 회사도 자기 인프라와 모델 최적화가 경쟁에서 이기는 핵심 경로라는 걸 다 아니까, 이 부분은 아주 진지하게 하고 있을 거라 봄

이런 주장은 너무 경험적이라 재현이 어려운 게 문제임

MMLU 같은 전통 벤치 바깥으로 나아가는 건 반갑지만, 적절한 통제 실험 없이 이런 식 수치를 말하는 건 큰 도움이 안 됨

Mythos vs GPT-5.5를 수치로 보면 SWE-bench Pro에서는 아직 차이가 크지만, 그 외에는 꽤 비슷해 보임

SWE-bench Pro 77.8% 대 58.6%

Terminal-bench-2.0 82.0% 대 82.7%

GPQA Diamond 94.6% 대 93.6%

H. Last Exam 56.8% 대 41.4%

H. Last Exam (tools) 64.7% 대 52.2%

BrowseComp 86.9% 대 84.4%, Pro 기준 90.1%

OSWorld-Verified 79.6% 대 78.7%

Mythos 수치 출처는 https://www.anthropic.com/glasswing임

Mythos는 실제로 쓸 수 있을 때만 의미가 있음

지금 Opus 4.7을 써보면 자율성이 체감상 엄청 너프돼 있고, 이른바 안전성 때문에 제약이 심함

그래서 Anthropic이 광고하는 만큼 실제로 대단할지 나는 확신이 잘 안 섬

나는 SWE-bench Verified를 좀 들여다봤는데, Mythos 수치는 여러 의문을 남김

공식 제출들을 https://github.com/SWE-bench/experiments/tree/main/evaluatio...에서 Sonnet 4 이후 모델만 추려 500개 문제 전체에 대해 합산해보니, 모든 모델을 합친 해결률이 정확히 93%였음

그런데 Mythos가 93.7%를 찍었다는 건 다른 어떤 모델도 못 푼 문제까지 푼다는 뜻인데, 그 문제들을 직접 보니 더 수상했음

남은 7% 문제는 테스트 패치를 미리 보지 않고는 해결이 거의 불가능해 보였고, 실제 해법이 문제 설명과 너무 다르게 흘러가서 아예 다른 문제를 푸는 느낌까지 들었음

Mythos가 속였다고 단정하는 건 아니지만, 저장소의 여러 상태를 너무 잘 기억해서 내부 기억 속 diff만으로 진짜 문제 진술을 역추론하는 수준일 수도 있겠다고 봄

그렇지 않고서야 저렇게 애매한 문제 설명을 그렇게 정확히 해석하는 방식을 설명하기 어려움

Grok이 17% 이고 그게 최저이며, 대부분 모델이 80% 이상이라는 건 이상함

질문에 따라 환각은 오히려 100%에 더 가깝기도 한데, 이 벤치는 직관적으로 잘 납득되지 않음

뭔가 이상한데, Haiku가 그렇게 잘 나올 리는 없어 보임

이건 업체들이 그런 행동을 원한다는 신호처럼 읽힘

질문하는 사람은 문제를 완전히 이해하지 못했을 가능성이 높고, 그래서 결과가 어떻든 일단 자신감 있는 답을 선호하는 듯함

목표는 기술의 실제 역량보다 유능해 보이는 인상을 파는 데 있는 것 같음

LLM은 제품을 망칠 수도 있는데, 억만장자의 사고 기계가 직원을 대체할 수 있다고 믿고 노동 예산의 75%를 거기에 쏟으라는 식이라면 즐겁게 당해보라는 말밖에 안 나옴

이 모델은 장기 과제에 아주 강하고, Codex에는 이제 heartbeats도 들어가서 계속 상태를 확인할 수 있다고 함

검증 가능한 제약이 있으면서 몇 시간이 걸릴 어려운 문제를 맡겨보면 얼마나 좋은지 알 수 있을 거라고 함

OpenAI에서 일한다고 밝힘

좋은 기능 같고 빨리 테스트해보고 싶음

요즘 다른 모델들, 특히 Opus가 작업 중간에 자꾸 멈춰서 지쳤음

Canva 내부 평가에서는 GPT-5.5가 장기 과제형 프론티어 챌린지를 많이 해결했고, 우리가 테스트한 AI 모델 중 처음인 경우도 많았음

출시 축하함

14
GeekNews

Show GN: 자료를 이미지형 슬라이드로 바꿔주는 Codex 스킬 (gpt-slide)

2026-04-24T09:34

보고서나 자료를 슬라이드로 다시 만드는 작업, 다들 한 번쯤 겪어보셨을 겁니다. Codex에서 gpt-image-2를 활용해 이 과정을 자동화하는 4단계 스킬을 만들어 공개합니다.

흐름

- gpt-slide-design : 레퍼런스 슬라이드를 분석해 비주얼 시스템을 DESIGN.md로 추출

- gpt-slide-plan : 스토리라인, 페이지 순서, 핵심 메시지 설계

- gpt-slide-prompt : 페이지별 상세 프롬프트 JSON 생성

- gpt-slide-generate : 슬라이드 이미지를 순서대로 렌더링 (page_1.png ~ page_N.png)

사용 조건

이미지 생성을 네이티브로 지원하는 Codex 필요

Plus($20/월) 이상 확인됨, Free/Go는 미확인

플랜 구독 시 이미지 생성 자체가 Codex 에서 무료

gpt-image-2의 텍스트 렌더링 품질이 좋아서 슬라이드 이미지 자체로도 충분히 실용적입니다.

하네스를 더 구축하면 html, pptx, mp4 변환도 가능합니다.

빌트인 테마, 언어 세팅, verification 등은 계속 업데이트할 예정입니다.

15
GeekNews

syntaqlite - SQLite 자체 문법과 토크나이저 기반의 SQL 파서·포매터·검증기·언어 서버

2026-04-24T09:30

- SQLite의 Lemon 생성 문법과 토크나이저를 C로 직접 컴파일해 사용하는 도구로, 범용 SQL 파서가 SQLite를 "플레이버"로 근사하는 방식의 한계를 제거

sqlite3_prepare

가 잡아내는 오류를 DB 연결 없이 스키마 대비 검증하며, sqlite3

와 달리 한 번의 패스에서 모든 오류를 소스 위치·수정 제안과 함께 보고

--sqlite-version 3.32.0

처럼 특정 SQLite 버전 고정이 가능해, Android 등 구버전 SQLite 환경에서 지원되지 않는 문법(RETURNING

등) 사전 감지

- 22개 컴파일 타임 플래그(

SQLITE_ENABLE_MATH_FUNCTIONS

등) 반영으로 타깃 빌드와 정확히 일치하는 검증 수행

- SQLite 업스트림 테스트 스위트 약 39만 6천 문장 대비 약 99.7% 파싱 수용 일치율

- 결정론적 SQL 포매터 내장으로 줄 너비·키워드 대소문자·들여쓰기 설정 가능

- Python·TypeScript 문자열 속 SQL을 추출해 보간 구멍 처리 후 검증하는 실험적 기능 포함

syntaqlite.toml

프로젝트 설정 파일로 glob별 스키마 매핑·포맷 옵션을 LSP·CLI·에디터가 자동 로드

- LSP 지원으로 VS Code 확장·Zed 확장·Claude Code 플러그인 제공, DB 연결 없이 진단·자동완성·시맨틱 하이라이팅 동작

- 브라우저에서 WASM으로 돌아가는 Web Playground 제공

- Rust·Python·JavaScript(WASM)·C 라이브러리로 사용 가능, 설치는 pip·Homebrew·Cargo·mise·curl 원라이너 지원

- 파서·토크나이저는 C, 포매터·검증기·LSP는 Rust로 구현한 이원 아키텍처

- Apache 2.0 라이선스

16
GeekNews

Zed의 병렬 에이전트 기능 소개

2026-04-24T08:35

이 워크플로를 쓸수록 더 마음에 듦. 진짜 게임 체인저는 (a) worktree마다 병렬 스레드를 돌리고, (b) VM 띄우듯 다룰 수 있을 만큼 라이프사이클 훅이 충분한 부분임

내 경우엔 worktree를 만들면 로컬 config 파일을 복사하고, Postgres가 dev/test DB를 복제해서 격리된 테스트를 하게 해줌. worktree를 닫으면 그 DB도 같이 지움

지금까지는 Conductor가 제일 좋았지만 회사에서는 Copilot만 써야 하고 백엔드도 Claude/Codex로 고정돼 있어서 못 씀. Arbor는 비슷하지만 개발이 덜 활발하고 거친 부분이 많고, Opencode GUI는 create hook은 있어도 teardown이 없음

Zed가 이 부분까지 연결하면서도 좋은 에디터 정체성을 유지하면 확실히 판을 바꿀 수 있다고 봄

반가움. Conductor 만든 사람인데 이런 사용 사례가 정말 도움 됨

더 많은 에이전트를 붙이는 작업 중이고, Copilot과 OpenCode harness 지원 요청이 특히 많음

최근엔 탈출구도 만들었음. Settings → Experimental → Big Terminal Mode를 켜면 가운데 패널에 새 터미널을 만들고(⌘⇧T) Copilot, OpenCode 같은 원하는 에이전트를 쓸 수 있음. 아직 알림 같은 건 부족해서 완성형 경험은 아니지만, 정식 UI가 나오기 전까지는 원하는 harness를 쓸 수 있게 해줌

피드백은 언제든 charlie@conductor.build로 보내주면 됨

내가 뭔가를 오해한 게 아니라면, 이건 외부 도구 없이 헬퍼 셸 스크립트 몇 개로 충분히 만들 수 있어 보임

새 git worktree를 만들고, 로컬 .env나 다른 config 파일을 복사한 뒤 worktree마다 충돌 없는 포트와 변수를 채워 넣으면 됨. localhost 충돌 회피용이고 Docker로도 풀 수 있음

main에 머지한 뒤 worktree를 정리하는 teardown 스크립트도 같이 두면 되고, 자동화 테스트용으로는 Chrome debug port와 임시 user data dir도 worktree별로 다르게 주고 있음

그래서 굳이 별도 라이브러리나 툴이 왜 필요한지는 잘 모르겠음

VSCode에서는 같은 용도로 https://github.com/jackiotyu/git-worktree-manager를 씀

이 확장에는 before create / before destroy hook가 있어서 원하는 작업을 뭐든 넣을 수 있음. 내 쪽에선 main checkout의 workspace 파일을 심링크하고, 패키지 설치하고, 몇몇 파일도 복사하게 해둠. 꽤 편리함

Ouijit도 볼 만함. 나는 업무에서 자주 쓰는데, 원하는 환경 자체에 초점을 맞추고 그 안에서 어떤 툴이든 쓸 수 있는 셸을 줌

필요하면 worktree별 VM 격리도 가능함 https://github.com/ouijit/ouijit

이제는 다들 병렬 에이전트와 worktree 쪽으로 가는 게 분명해 보이는데, Zed가 이걸 내놓은 건 의외였음. 원래는 에디터 중심이고 AI는 철저히 선택 사항이라는 색이 강했으니까

Zed의 강점은 에이전트 불문이라는 점, 저장소마다 worktree를 자동으로 만들어 한 에이전트에서 여러 리포지토리를 다룰 수 있다는 점, 그리고 CLI를 감싼 수준이 아니라 자체 에이전트 UI 품질이 높다는 점임. 내가 알기로 이 조합을 다 갖춘 첫 메이저 도구 같음

맞긴 한데 Claude의 MCP integration 같은 기능은 많이 빠져 있음

이걸 logfire에 붙여서 텔레메트리를 보는데, 최적화나 버그 진단할 때는 체감이 엄청 큼. plugins랑 skills도 아직 없음

그래도 provider를 쉽게 바꿔 끼울 수 있는 건 좋음

새 기본 레이아웃은 내가 원하는 방향과 정확히 반대임

내 기준에선 project tree | text editor | agent view | threads 순서여야 함

대부분 노트북에선 패널 두 개 정도만 제대로 보이고, 네 패널 워크플로를 강조할 게 아니라 패널 관리와 뷰 전환을 쉽게 만드는 쪽에 더 집중해야 함. 울트라와이드가 아니라면 Agents는 차라리 별도 창이 나음

Zed를 많이 쓰고 설정으로 바꿀 수 있는 사소한 부분이긴 한데, 꽤 상징적인 설계 결정처럼 느껴져서 거슬림. 이러다 편집 자체는 덜 중요하다고 판단하고 VI mode 지원도 밀어내는 것 아닌가 싶음

나도 제일 먼저 모든 위치를 원래대로 되돌렸음. 강제로 밀어 넣은 자동 레이아웃 변경이 정말 싫었음

변경 로그를 봐도 요즘은 에이전트 쪽에 대부분의 노력이 들어가는 것 같아서 걱정됨. 내가 Zed를 좋아하는 이유는 좋은 에디터이면서 에이전트를 조금 아는 정도이기 때문이지, 점점 더 깊게 에이전트 관리 중심으로 피벗하길 바라진 않음

VI 지원을 빼면 기여자로서도 사용자로서도 바로 떠날 것임. 애초에 그게 Zed를 쓰기 시작한 이유였음

다만 당장 없앨 것 같지는 않음

편집이 중요하지 않다고 판단해서 VI 지원까지 끊을 거라고 보는 건 너무 비약적임

나는 일부러 병렬 에이전트를 피하는 편임. 인지 부채가 너무 커지고, 작업 중간에 구조적으로 말이 되는 방향으로 에이전트를 계속 조향해야 하는 경우가 많기 때문임

동의함. 단순한 작업엔 잘 맞지만, 그런 작업은 순차적으로 해도 원래 빠름

복잡한 작업은 보통 thinking 출력을 열어두고 중간에 끊거나 가이드를 넣어야 함. 그걸 안 하면 결과물이 엉망일 때가 많고, 그걸 고치기도 힘든데 병렬 프로세스까지 같이 보고 있으면 더 어려워짐

나도 같음. 리뷰 부담도 커지고, 코드 리뷰까지 해야 하면 멀티태스킹은 생산성을 거의 다 죽임

요즘은 한 번에 하나의 변경만 처리하고, 완전히 자신 있게 머지할 수 있을 때까지 그 흐름을 유지함

완전히 동의함. 에이전트를 많이 띄울수록 vibe coding으로 흘러가고 guide coding은 줄어듦

어느 순간 머릿속에서 그냥 커밋하고 넘어가자는 신호가 오는데, 그 유혹을 억지로 참게 됨

기본 레이아웃이 코드와 파일 트리를 밀어내고 AI 도구 자리를 만드는 건 별로 마음에 안 듦

Zed는 정말 좋아하고 매일 쓰지만, 처음 설치했을 때 이 레이아웃을 봤다면 진지하게 보지 않았을 것 같음

신규 사용자 일부는 확실히 밀어낼 수 있다고 봄

오히려 잃는 것보다 더 많은 사용자를 끌어올 것 같음

비슷한 걸 하는 다른 툴들은 대부분 무겁고 버그도 많고 Electron 기반임

다행히 바꾸기는 아주 쉬움. 다만 새 사용자에겐 조금 직관적이지 않음

하단 바의 작은 패널 아이콘을 우클릭해서 도킹 위치를 고르면 되고, 좌클릭은 패널 표시 토글임

이제는 에디터에 4K 모니터가 있으면 좋은 수준이 아니라 거의 요구사항처럼 되어감

지금도 agent, editor, files/git 같은 걸 같이 띄우는데 여기에 네 번째 패널까지 추가하면 저해상도에선 너무 답답함. 나는 4K 모니터가 있긴 하지만 원래는 반쪽에 에디터, 반쪽에 브라우저 같은 다른 창을 두고 썼어서 에디터를 풀스크린으로 써야 하는 흐름은 여전히 약간 거슬림

물론 이건 기본 레이아웃일 뿐이고 Zed에도 아마 바꾸는 방법이 있을 것 같음. JetBrains IDE처럼 좌상/좌하/우하/우상 식으로 패널을 배치하고 한 번에 숨기고 보여줄 수 있으면, 예를 들어 파일은 좌상단, 에이전트는 좌하단에 두고 가운데는 계속 에디터 중심으로 유지할 수 있음

오히려 더 많은 사용자를 끌어들일 수도 있음. 나는 코드를 보고 싶지 않음

여러 프로젝트를 한 곳에 몰아넣고 끝없이 컨텍스트 스위칭하기 쉬운 codex 스타일 앱이 더 좋음

나도 처음엔 그렇게 느꼈는데, 실제 변경은 주로 어느 패널이 왼쪽/오른쪽 어디에 도킹되느냐를 바꾸고 AI 패널을 조금 다듬은 정도로 보임

macOS에서는 여전히 ⌘B가 왼쪽 dock 토글, ⌘R이 오른쪽 dock 토글임

새 레이아웃을 켜면 원래 왼쪽에 있던 패널이 오른쪽으로 가는 식이라, 전통적인 코딩 용도로도 한 번 써볼 생각임. 설정 창에서 각 패널의 도킹 위치는 바꿀 수 있음

나한텐 병렬 에이전트가 기본이 아니라 예외에 가까움. 어쩌면 내가 문제일 수도 있겠지만, 그런 예외적인 상황도 터미널 몇 개 더 열면 충분하다고 느낌

이게 정말 주된 워크플로가 되어야 하는지는 잘 모르겠음. 내 뇌는 한 문제를 깊게 파는 쪽이 더 잘 맞음

나도 완전히 같은 타입인데, 이번 업데이트는 꽤 기대됨

꼭 병렬 실행 자체보다도 스레드 사이를 쉽게 오가는 것이 더 중요함. 메인 편집 컨텍스트를 흐트러뜨리지 않고 옆 스레드에서 잡다한 조사 작업을 파고들 수 있게 해줌

예전엔 거의 안 썼지만 이제는 써보고 싶음. 어떤 작업이든 spin up / tear down을 격리해서 처리할 수 있기 때문임

예를 들면 편집에 들어가기 전에 변경 초안을 먼저 잡거나, 리뷰 전에 브랜치를 checkout해서 코드를 셋업하는 작업 같은 것들임

Zed를 써봤고 충분히 메인 에디터로 쓸 수 있겠다고 느꼈지만, 확장 부족이 아쉬웠음. TODO highlight, TabOut 같은 것과 자잘한 QoL이 부족했고, 라인 번호 이동도 VSCode만큼 쉽지 않았고 다른 댓글에서 말한 탭 필터도 아쉬웠음

그리고 git commit message 에디터에서 폰트 크기를 설정할 수 없는 건 이상했음

최근 추가된 것 중에선 dev container integration은 정말 좋았음

Zed 응원함

참고로 이제 TODO 하이라이팅 확장이 있음. 지금 기계 앞은 아니지만 이름이 아마 comments highlighter 비슷했음

없는 Zed 확장은 zed agents로 직접 만들면 됨

Zed의 agent UI는 내가 본 것 중 가장 혼란스러운 UI임. 아이콘은 작고 모호하고, x를 눌렀을 때 어떤 때는 에디터가 닫히고 어떤 때는 에이전트가 닫히고 어떤 때는 패널이 닫혀서 결과를 예측하기 어려움

새 기능 때문에 다시 써보려 했는데 이 예측 불가능한 동작 때문에 결국 삭제했음. 게다가 내가 구독 중인 opencode Go도 지원하지 않음

Warp도 1주쯤 전에 비슷한 걸 내놨지만, 내가 보기엔 Zed 쪽 구현이 더 논리적임

오랜만에 또 한 번 Zed를 써봐야겠음. 매달 한 번씩 오는 “이번엔 이 터미널/IDE를 써볼까” 하는 itch가 올라온 상태임

Warp도 좋아하지만 뭔가 불투명하고 헷갈리는 느낌이 있음

내가 아직 학습 곡선을 제대로 넘지 못한 걸 수도 있고, 그냥 아직 알파 단계에 가깝고 자주 바뀌어서 그럴 수도 있음

Parallel agents 기능이 git worktree나 로컬 프로젝트 중심으로 설계된 것처럼 보이는데, 로컬 프로젝트 모드는 오히려 핵심을 흐린다고 느낌

내 일상 개발 흐름은 이미 jj workspaces로 완전히 옮겨갔기 때문에, Zed가 jj를 지원하기 전까진 이 기능을 쓸 일이 없음

게다가 이번 변경으로 레이아웃까지 예상 못 하게 뒤섞였는데, 지금은 원래대로 되돌리는 방법도 잘 모르겠음

17
GeekNews

GStack: Y Combinator CEO가 만든 AI 코딩 에이전트 프레임워크 유투브소개

2026-04-24T07:54

YC(Y Combinator) 대표이자 엔지니어 출신인 개리 탄(Garry Tan)이 자신의 AI 코딩 워크플로우를 오픈소스로 공개했습니다. GStack은 Claude Code를 단순한 코드 생성 도구가 아니라, 마치 CEO·디자이너·엔지니어·QA 담당자로 구성된 가상의 소프트웨어 팀처럼 작동하게 만드는 스킬 팩(skill pack)입니다. 공개 3주 만에 Ruby on Rails보다 많은 GitHub 스타를 기록했으며, 현재 7만 개 이상의 스타를 보유하고 있습니다. 개리 탄은 이 도구를 활용해 과거 2년, 10명의 엔지니어, 1,000만 달러가 소요됐던 자신의 스타트업 Posterous 수준의 코드를 60일 만에 작성했다고 밝힙니다.

핵심 구조와 작동 방식

- "얇은 껍데기, 두꺼운 스킬"이라는 설계 철학을 따릅니다. GStack은 별도의 복잡한 런타임 없이, 마크다운 기반의 구조화된 프롬프트(지시문)만으로 동작합니다. 모든 스킬은 Claude Code의 기존 슬래시 명령어 체계 위에서 실행되므로, 추가 인프라 도입 부담이 거의 없습니다.

- 23개의 전문 스킬이 스프린트 구조로 연결됩니다. "생각하기 → 계획 → 구축 → 리뷰 → 테스트 → 배포 → 회고"라는 소프트웨어 개발의 전체 주기를 커버하며, 각 스킬의 출력이 다음 단계의 입력으로 자연스럽게 이어집니다.

- Office Hours 스킬은 YC 파트너의 사고방식을 모사합니다. 아이디어 단계에서 "이걸 실제로 원하는 사람이 있다는 가장 강력한 증거가 뭔가요?"와 같은 강제 질문을 통해 제품 방향을 다듬고, 사업 모델과 실현 가능성까지 검토합니다.

- 적대적 리뷰(adversarial review) 기능이 설계 문서를 자동으로 검증합니다. 다단계 검토를 거치며 실패 처리 누락, 프라이버시 미비, 2단계 인증 핸드오프 미해결 같은 이슈를 자동으로 포착하고 수정을 시도합니다.

차별점

- 단순 코드 생성이 아닌 전체 스프린트 라이프사이클을 다룹니다. 대부분의 AI 코딩 도구가 코드 작성이나 리뷰에 집중하는 반면, GStack은 아이디어 검증부터 배포까지의 전 과정을 구조화합니다.

- 8개의 AI 코딩 에이전트를 동시에 지원합니다. Claude Code뿐 아니라 OpenAI Codex CLI, Cursor, OpenCode 등에서도 같은 스킬을 활용할 수 있어, 특정 벤더에 종속되지 않습니다.

/codex

명령어로 교차 모델 리뷰가 가능합니다. Claude와 OpenAI Codex CLI의 독립적인 리뷰를 비교 분석해, 한 모델이 놓치는 문제를 다른 모델이 잡아낼 수 있도록 설계되어 있습니다.- Playwright 기반의 실제 브라우저 QA를 내장하고 있습니다.

/qa

명령어로 실제 Chromium 브라우저를 열어 클릭, 입력, 스크린샷 캡처 등을 수행하며, 회귀 테스트를 자동으로 생성하고 커밋합니다. 기존 Chrome MCP의 느린 응답과 컨텍스트 비대화 문제를 CLI 래핑으로 우회한 결과물입니다.

장점

- 병렬 작업이 가능한 구조입니다. 개리 탄 본인은 10~15개의 Claude Code 세션을 동시에 실행하며, 하루에 50개까지 PR(코드 변경 요청)을 처리한다고 합니다. 워크트리(work tree) 기반으로 각각 독립된 브랜치에서 작업이 진행됩니다.

- 팀 설치 모드(

./setup --team

)가 제공됩니다. 세션 시작 시 자동 업데이트되며, 프로젝트 저장소에 별도 파일이 추가되지 않아 팀 단위 도입이 비교적 수월합니다. - MIT 라이선스의 완전한 오픈소스입니다. 별도 비용이나 구독 없이 사용할 수 있으며, 커뮤니티 기여도 활발하게 이뤄지고 있습니다.

한계와 유의점

- 워크플로우에 강한 의견(opinionated)이 반영되어 있습니다. 개리 탄 개인의 개발 습관과 YC식 제품 사고가 깊이 녹아 있으므로, 모든 팀의 문화와 맞지 않을 수 있습니다.

- 60일간 60만 줄 이상의 코드를 작성했다는 주장은 검증이 어렵습니다. 인상적인 수치이나, AI 생성 코드의 품질과 유지보수성은 별개의 문제입니다.

- 모델 자체의 한계를 구조로 보완하는 접근이므로, 모델 성능에 여전히 의존합니다. GStack은 모델이 "똑똑하지만 방향을 잡지 못할 때" 구조를 씌워주는 도구이지, 모델의 근본적 한계를 해결하지는 않습니다.

"소프트웨어를 만드는 장벽이 무너진 시대, 남은 질문은 무엇을 만들 것인가입니다"

GStack이 보여주는 것은 AI 코딩 에이전트의 진짜 병목이 모델의 지능이 아니라 프로세스의 부재에 있을 수 있다는 점입니다. 구조화된 프롬프트만으로 소프트웨어 개발의 전체 사이클을 감싸는 이 접근법이 얼마나 범용적으로 통할지는 아직 지켜볼 일이지만, 7만 개의 GitHub 스타는 적어도 이 문제의식에 공감하는 개발자가 상당히 많다는 것을 시사합니다. AI와 함께 코드를 쓰는 방식이 "프롬프트 한 줄"에서 "팀 시뮬레이션"으로 이동하고 있다는 흐름 자체는 주목할 만합니다.

18
GeekNews

340만 개 태양광 패널

2026-04-24T07:35

Florida처럼 덥고 햇볕 많은 주들에 태양광 패널이 거의 없다는 게 꽤 놀라움

Florida에는 막는 이상한 법들이 있긴 하지만, 10kW 미만은 아직 비교적 쉽게 설치 가능함

아는 사람은 10kW 미만으로 설치해서, 오래된 저효율 AC와 단창, 나쁜 지붕 단열 조건에서도 97% 오프그리드로 버티고 있음

전기요금 절감보다 허리케인 뒤 정전 대비가 더 큰 이유였음

재생에너지 정치화를 과소평가하면 안 됨

거의 공짜에 가까운 에너지면 저절로 팔릴 것 같지만, 시골 지역에서 태양광 얘기만 꺼내도 악의적인 “그럼 x는 어쩔 건데?” 식 반응이 줄줄이 따라옴

Florida에서는 아이러니하게도 허리케인이 태양광이 적은 이유가 되기도 함

예를 들어 Miami-Dade 카운티는 상업용 태양광에 시속 160마일 이상 바람을 견디는 허리케인 승인 마운트를 요구해서 설치비가 크게 오름

주택도 허리케인 때문에 지붕 태양광이 있으면 보험 가입을 꺼리는 보험사가 많음

Alabama는 규제 포획이 심해서, 계통 연계형 태양광을 설치하면 내야 하는 수수료가 Alabama Power에서 그냥 전기 사는 것보다 더 비쌈

내가 더 이해 안 되는 곳은 Hawaii임

거기는 거의 모든 건물에 패널이 붙어 있어야 할 정도로 전기화의 세계적 선도 지역이 될 기회가 큼

그런데도 벙커유를 수입해서 발전소 부두에 대고 태워 섬 전체에 전기를 공급하고 있음

오프그리드로 살고 있고, 7kW 패널과 48V 리튬 배터리 40kWh, 그리고 거의 안 쓰는 백업 발전기를 갖춰서 운영 중임

전기를 아껴 쓰고 안 쓰는 건 다 꺼두기 때문에 발전기는 거의 필요 없음

전부 직접 설치했는데, 사소한 일은 많아도 그렇게까지 어려운 작업은 아니었음

커넥터 제대로 체결하는 법, 케이블 굵기 선정, 러그 압착, 접지와 차단기 같은 걸 하나씩 배우면 됨

지금은 식량 재배용 급수 펌프와 관개를 돌릴 별채 지붕용 시스템도 추가하려고 함

이건 48V 리튬 배터리 하나만 쓸 거라 더 단순하지만, 여전히 Victron 장비를 쓰고 Cerbo에 연결해 모니터링할 생각임

만약 이 집을 팔고 계통 전기가 들어오는 곳으로 가더라도, 제일 먼저 다시 전력선 끊고 자가 시스템부터 만들 것 같음

어떤 인버터 하드웨어를 썼는지 궁금함

나는 저렴한 120VAC 3600W 수입 인버터에 100Ah AGM 배터리 2개를 직렬로 물린 24VDC 구성으로 실험 중임

이동식 프레임, 200A 퓨즈와 차단기, #2 AWG 케이블, 단일 접지 바, AC 입출력, 간단한 전압계까지 갖춘 임시 시스템임

패널은 마당에 잠깐 설치해 봤는데 도심이라 일조가 별로였고, 이틀 돌리다 비 오기 전에 철수해서 제대로 측정은 못 했음

지난겨울 강풍으로 1시간 반 정전됐을 때 보일러 백업으로는 꽤 유용했지만, 집의 작은 IT 장비용 UPS로 쓰기엔 3600W가 너무 과함

설치 과정을 정리한 블로그나 링크가 있는지 궁금함

나도 당신한테 배워야겠음

지금 아내와 오프그리드 캐빈을 짓고 있어서 세부 구성을 막 알아보는 중임

우리는 아마 납산 해양 배터리를 쓸 것 같고, 방향은 비슷하지만 South Central Alaska의 겨울은 발전량이 워낙 암울해서 훨씬 더 많은 태양광이 필요할 듯함

검사와 건축 코드는 어떻게 처리했는지 궁금함

아니면 아예 건축 규정이 없는 카운티인지도 궁금함

그리드가 있는 곳으로 이사 가도 굳이 다시 계통 분리부터 하려는 이유가 뭔지 궁금함

굳이 수랭식 워크스테이션 전체를 강조하는 게 왜 큰 의미인지 잘 모르겠음

이 사람 하드웨어 사양을 내가 알아야 할 이유도 모르겠고, 수백만 행짜리 데이터셋을 돌리는 데 그런 장비가 꼭 필요한지도 의문임

수랭 컴퓨터의 가장 큰 장점은, 애매하게 느려졌지만 아직 쓸 만한 회색지대를 오래 겪는 대신 예고 없이 치명적으로 고장나서 업그레이드 결정을 쉽게 해준다는 점이라는 농담이 가능함

이 사람은 원래 블로그 글마다 늘 이런 식이라 너무 깊게 생각할 필요 없음

기술 업계엔 예상 밖의 개성을 가진 사람이 많음

여기서까지 컴퓨터에 열광하는 사람을 취미 부심으로 깎아내릴 필요는 없다고 봄

HN 같은 곳이라면 더더욱 그럴 이유가 없음

9950X는 가격 대비 훌륭한 CPU고, 평범한 케이스와 평범한 공랭 히트싱크만으로도 아주 잘 돌아감

TDP가 그렇게 높은 편도 아님

내 9950X도 공랭으로 행복하게 돌고 있음

좀 민망하지만 내가 신경 쓰는 CPU 바운드 작업에선 M4 Max가 45W쯤 마시면서 거의 비슷하게 따라옴

업계 전체가 전력 효율 면에서는 Apple을 더 빨리 따라잡아야 함

글 분위기가 90년대 말~2000년대 초반 기술 블로그 같아서 오히려 좋았음

커스텀 Gentoo 빌드 이야기만 빠진 느낌임

방위각이나 경사각 히스토그램을 보면 꽤 흥미로울 것 같음

네덜란드라면 대략 남향 15~30도 부근에 피크가 있고, 동/서 조합에도 작은 피크가 있을 것 같음

이 데이터셋에선 어떤 모양일지 궁금함

좋은 아이디어라서, 오늘은 시간이 많지 않지만 글 맨 아래에 시각화 두 개를 추가해 뒀음

동서향 배치와 남향 배치의 장단점을 비교하는 실험이 요즘 꽤 흥미로움

지붕 면적이 제한될 때는 남향이 방향은 더 좋아도, 동서향이 같은 면적에 더 많은 패널을 넣을 수 있어서 총 설치 용량 면에서 유리할 수 있음

결국 지역과 지붕 조건에 따라 품질 대 수량의 문제로 봐야 함

페로브스카이트가 연구실을 벗어나 시장에 나오고 있고, 탠덤 셀 효율도 30%를 넘겼다고 하니 요즘 출시되는 혁신이 꽤 많아 보임

그런데 플러그인 태양광은 Utah를 빼면 거의 어디서나 제도적으로 가로막히고 있음

이 지도들을 보면 태양광 사용이 효율성보다 정치화에 더 좌우된다는 게 너무 선명하게 드러남

꽤 멋지긴 한데, 이 히트맵에는 약간 인구밀도 지도처럼 보이는 효과가 있음 https://xkcd.com/1138/

1인당 기준으로 바꾸면 더 재미있겠지만, 임의의 육각형 단위에서 인구밀도를 보정하는 건 꽤 어려울 듯함

일부 지역, 특히 Texas와 Florida의 허브에서 밀집도가 낮은 것은 오히려 꽤 눈에 띔

비용 대비 효과만 봐도 저런 곳은 패널이 훨씬 빽빽해야 한다고 생각함

Portland가 그 지도에서 빨간 점도 못 찍는다면, xkcd 데이터 어딘가가 잘못된 것 같음

패널 수와 지역 IQ를 비교해 보면 흥미로운 신호가 나올 수도 있다고 봄

패널은 40년 수명 동안 5년 미만에 투자금 회수가 가능할 정도로 현금흐름이 좋고, 자기 사용량을 덮기 전까지는 이보다 나은 투자가 거의 없다고 봄

그 논리는 결국 똑똑한 사람은 태양광을 더 사고, 멍청한 사람은 덜 산다로 귀결되는데 너무 단순함

지역별 패널 수를 가르는 핵심 변수는 일사량, 지역 인센티브, 혹은 전력요금일 가능성이 더 큼

나 같은 경우 에너지 사용이 가장 많은 달은 햇빛이 가장 적은 달이고, 가장 많이 전기를 쓰는 시간도 긴 밤 시간대인데 주 소비원이 히트펌프이기 때문임

추운 기후에 사는 사람들에겐 이런 패턴이 흔해서, 다른 지역보다 훨씬 큰 태양광 kWh 용량과 배터리 용량이 필요해짐

시장 수익률을 8%로 가정하면, 태양광 설치에 1만5천 달러를 쓸 때 월 100달러 이상의 전기 사용을 상쇄해야 시장 투자보다 나아지는데, 많은 사람에겐 계산이 잘 안 맞음

그건 너무 낙관적 계산임

내가 써본 온라인 계산기들은 회수기간을 18년, 평생 절감액을 1만8천 달러 정도로 보는데 초기 설치비만 3만2천 달러가 듦

게다가 내 지붕은 이미 수명의 절반을 지나서, 패널 마운트로 인한 누수는 지붕을 먼저 교체하지 않으면 보증도 안 해준다고 들었음

지붕 교체에 2만5천 달러가 더 들어감

다음 집은 PNW보다 조금 더 남쪽의 오래 살 집으로 가서 지붕 대신 지상형 설치를 하고 싶지만, 지금은 숫자가 전혀 맞지 않음

태양광은 갖고 싶어도 재미 삼아 다섯 자리 추가 비용을 쓸 생각은 없음

regional IQ 같은 개념을 진지하게 믿는다는 게 더 놀라움

DuckDB로 340만 개 태양광 패널을 파고든 분석이 대단함

히트맵도 좋고 Ivanpah를 정확히 짚은 것도 좋았고, 완전히 beast mode 분석 같음

19
요즘IT

왜 지금 다시 클로드 코드인가: 클코나잇 시즌 2

클로드 코드가 처음 등장했을 때를 기억하시나요? “이게 진짜 되네?” 하고 놀라워하던 순간이 있었죠. 이제는 개발자뿐만 아니라, PM, 기획자, 마케터까지 클로드 코드를 활용해 문제를 직접 해결하고 있습니다. 팀 단위로 도입하거나, 조직 전체의 워크플로우를 바꾼 사례도 하나둘 늘어나고 있고요. 그 흐름을 보며 자연스럽게 한 가지 질문이 떠올랐습니다.

“현업에서 이 도구를 매일 써온 사람들은, 실제로 어떻게 활용하고 있을까?”

잘 작동했던 경험뿐 아니라, 잘 되다가 막혔던 순간, 여러 번 시도했지만 기대만큼 풀리지 않았던 경험, 그럼에도 다시 방법을 찾아 나섰던 과정까지. 거창하게 정리된 성공담보다, 실사용자들의 솔직하고 생생한 이야기를 듣고 싶었습니다. 그래서 요즘IT는 ‘클로드 코드 나잇(일명 클코나잇)’을 기획했고, 시즌 1을 통해 그 이야기들을 직접 들어 볼 수 있었습니다.

그리고 2026년 클코나잇 시즌 2를 준비하며, 이번 여정을 함께 만들어갈 발표자분들을 찾고 있습니다.

2025년 10월부터 12월까지 총 3회에 걸쳐, 진행한 클코나잇 1은 현업에서 직접 부딪히며 시행착오를 겪은 사람들이 날것의 경험을 나누는 자리였는데요.

클코나잇에서 나눈 이야기들은 이후 『클로드 코드로 일하기: 10인 실제 사례집』으로 엮여 판매됐으며, 관련 콘텐츠 또한 평균 조회수 1만 뷰를 넘기며 많은 관심을 받았습니다.

올해 초에는 비개발자도 에이전트 방식으로 업무를 자동화할 수 있는 Claude Cowork가 출시됐고, 4월에는 대화 한 줄만으로 프로토타입과 슬라이드를 만드는 Claude Design도 등장했습니다. 코드에서 문서, 디자인까지. 이제 클로드가 조직 안에서 다루는 업무의 범위는 더 빠르게 넓어지고 있습니다.

AI Business Weekly에 따르면, Fortune 100 기업의 70%가 이미 클로드를 도입했고, 연간 10만 달러 이상을 지출하는 기업 고객 수도 전년 대비 7배 증가했습니다. 클로드 코드는 이제 개인의 생산성을 높이는 도구를 넘어, 조직 전체의 워크플로우를 바꾸는 도구로 자리 잡아가고 있는 셈이죠.

그렇다면 지금 이 도구를 가장 깊이 활용하고 있는 사람들은, 실제로 어떤 방식으로 일하고 있을까요?

클코나잇 시즌 2는 바로 그 이야기를 직접 들어보는 자리입니다.

직접 써보며 막히기도 했고, 다시 시도해보기도 했고, 그 과정 끝에 자신만의 활용 방식을 만들어낸 사람들의 경험을 기다립니다. 개인의 시행착오부터 팀 차원의 도입과 정착 과정까지, 이미 정리된 성공 사례뿐 아니라 지금도 진행 중인 실험과 고민 역시 모두 환영합니다!

개인 참여는 물론, 팀 단위(2인 이상)로도 신청하실 수 있습니다.

- 요즘IT 기사·뉴스레터·SNS 공식 소개됩니다. (개인 블로그·링크드인 링크 포함)

- 발표 내용은 요즘IT 공식 유튜브 영상으로 기록됩니다.

- 발표 내용은 사례집(PDF)으로 엮여 판매될 수 있으며, 판매 수익은 배분됩니다.

- 요즘IT Speaker 공식 배지(PNG/SVG)를 제공합니다.

- 후속 인터뷰나 다음 세미나로 이어질 기회도 열려 있습니다.

AI와 함께 일하는 여정에는 아직 정답이 없다고 생각합니다. 클로드 코드와 함께한 시행착오의 이야기라면 그 자체로 충분합니다.

너무 고민하지 마시고, 지금 바로 지원해보세요!

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

20
요즘IT

한국에서 인기 있는 앱이 왜 영국에선 통하지 않을까?

현재 영국에 지내다 보니 국가에 따라 앱 서비스 사용하는 상황에 차이가 있다는 걸 알게 됐다. 그 예시로 스타벅스 사이렌 오더가 주문이 익숙한 한국과 달리, 영국은 매장에서 직접 주문하는 경우가 많다. 오히려 앱 주문을 어색해하고 앱 사용에 어려움을 겪는 것이다. 서비스 측에서도 앱 사용을 이끌기 위한 프로모션을 시행하는 것도 드물었다. 이처럼 같은 서비스여도 나라마다 앱 사용률의 차이를 체감하니, 타 국가에 서비스를 안착시키기 위해선 어떤 접근 방식을 따를지 고민하게 된다.

또 다른 예로 당근이 당근마켓 서비스를 영국, 캐나다에 확장하는 과정에서 ‘매너 온도’ 기능에 대해 국내 고객과 이해 차이가 극명히 드러났던 사례가 있다. 국내 사용자는 36.5도를 정상 체온이라 이해하는 것과 달리 캐나다, 영국에서 만난 사용자는 정상 체온의 표현 방식이 달랐다. 심지어 5점 만점의 별점으로 점수 매기는 방법처럼 누구나 익숙하고 쉽게 이해할 방법이 있는데, 왜 어려운 방식을 고수하냐는 의견이 있었다고 한다. (출처)

그래서 결국 체온에 대한 컨셉을 제외하고 score 점수 형태로 수정했다. 이는 다른 국가에 서비스를 출시할 경우 서비스를 이용하는 고객을 새롭게 이해해야 하며, 나아가 서비스가 해결해야 할 문제, 페인 포인트가 다르다는 점을 시사한다.

‘문제 정의’는 서비스를 다른 국가에 출시하는 것이 아니더라도, 프로덕트를 운영하는 입장에서 항상 주목하는 부분이다. 이때 문제로서 검증 가치가 있는가를 생각하여 가설을 세우게 되는데, 만약 새로운 고객을 타깃으로 서비스를 출시할 때, 어떻게 가설을 세우고 어떤 가설을 우선으로 검증해야 할까? 타국가에 출시해야 할 경우처럼 참고할 데이터가 없다면, 고객을 어떻게 이해할 수 있을까? 완전히 새로운 시장에서 새로운 고객을 타겟하는 서비스라면 어떨까.

이번 글에서는 Customer Journey Shadowing 방법을 활용하여, 고객을 이해하고 보다 유의미한 가설을 세우는 접근 방식에 관해 이야기하고자 한다.

고객의 여정(Customer Journey)을 그림자처럼 따라다니며 관찰하는 리서치 방법으로, 사용자가 실제로 무엇을 하는지 행동 중심으로 분석하는 방법이다. 단순 인터뷰나 설문과 달리 실제 행동, 맥락, 감정, 문제점을 현장에서 발견할 수 있다는 점이 핵심이다.

예시로, 카페 주문하는 행동을 리서치 하면, ‘ 고객이 매장에 들어와서 메뉴 탐색 → 주문 → 결제 → 픽업 → 좌석 이용’까지 전 과정을 관찰하는 것이며, 서비스 UX의 경우 ‘사용자가 상품 탐색 → 비교 → 장바구니 → 결제 → 배송 확인 과정’을 실제로 사용하는 모습을 관찰하는 것이다.

그렇다면 왜 Customer Journey Shadowing을 해야 할까? 인터뷰, 설문만으로는 사용자의 실제 행동과 차이가 생기기 때문이다. 예로 사용자를 구두로 인터뷰할 경우, ‘저는 항상 리뷰를 확인해요’ 라 답하지만, 실제로 리뷰를 거의 보지 않을 경우가 있고, ‘앱 사용이 어렵지 않았어요.’라 답하지만, 특정 화면을 여러 번 왔다 갔다 하기도 한다. 그래서 요즘 업계에서는 A/B Test를 시행해, 사용자의 의견이 아닌 실제 상황에서 나타난 행동을 검증하는 것이 보편화되고 있기도 하다.

대표적으로 Customer Journey Shadowing을 많이 사용하는 브랜드에는 IKEA 가 있다. UX 리서처들은 매장에서 ‘고객이 어떤 경로로 이동하는지’, ‘어떤 제품 앞에서 오래 머무는지’, ‘언제 직원을 찾는지’, ‘어떤 순간에 쇼핑을 포기하는지’ 분석했고, ‘고객이 제품 사진을 찍어둔다.’, ‘제품 위치를 나중에 찾지 못한다.’, ‘매장이 너무 커서 동선이 헷갈린다.’, 등의 페인 포인트를 발견했다. 이에 IKEA 앱에 ‘제품 위치 찾기’, ‘쇼핑 리스트’, ‘매장 지도’를 추가했다. 이는 Customer Journey Shadowing 리서치 인사이트를 디지털 서비스 개선으로 이어진 사례로 언급된다.

다음은 한 사례를 보여주는 자료다. IKEA의 Customer Journey Shadowing을 활용한 서비스 개선 기회 발견 과정을 알 수 있다. 가로축은 ‘고객 여정 전체’ 과정, 세로축은 차례대로 ‘고객 행동’, ‘터치 포인트(고객이 제품/서비스를 인지하고 구매, 사후 서비스에 이르기까지 기업과 접촉하는 모든 물리적·디지털·인적 상호작용 지점)’, ‘고객 경험/감정’, ‘기회 영역(개선할 수 있는 영역 또는 아이디어)’을 나타낸다.

특히 ‘고객 경험/감정’을 표시하는 두 선은 서비스 개선 지점을 나타낸다. 빨간 선은 문제가 발생하는 지점, 즉 페인 포인트(Pain Point)로 고객이 불편함을 느끼는 순간, 감정 그래프가 떨어지는 지점, 행동이 끊기거나 멈추는 순간을 의미한다. 초록 선은 개선 기회 또는 긍정적 경험 지점, 문제를 해결할 수 있는 지점, 새로운 기능/서비스 도입 가능함을 표시한다. 두 선의 차이가 발생하는 지점에 고객의 불편을 해결하는 기회 영역을 발견할 수 있다.

이처럼 Customer Journey Shadowing은 사용자가 명확하게 불편하다고 인식하지 못하지만, 행동을 방해하거나 경험을 나쁘게 만드는 요소를 알 수 있다. 즉, 실제 행동 기반으로 문제 발견하고 고객 경험 전체 흐름 이해할 수 있게 된다.

리서치 과정은 ‘리서치 목표를 정의 - 관찰 대상 사용자 선정 - 고객 여정 정의 - 실제 행동 관찰 - 인사이트 도출’ 순서로 진행된다. 해당 글에서는 스타벅스 앱 서비스 영국 현지화를 가정하여, 고객 행동의 특징과 페인 포인트를 이해하는 것을 목표로 설정했다.

고객을 관찰하며 인사이트를 도출할 때 염두에 둬야 할 것은 ‘해결해야 할 문제가 무엇인가’이다. 자칫 관찰을 하다보면 고객의 특징이나 차별점이 중요하다는 함정에 빠질 수 있다. 중요한 것은 Product Market Fit (이하 ‘PMF’) 으로서 검증할 만한 특징을 발견해야 한다는 점이다.

다음은 필자가 PMF에 유의미한 방향을 고려하여 스타벅스 고객을 관찰 및 정리한 인사이트다.

1) 앱 주문 보다 현장 주문을 선호한다.

2) 리워드/보상에 대한 인식 차이

3) 결제 방식 차이

4) 온라인 바우처(예)기프트콘) 문화 차이

고객 행동 관찰을 통해 얻은 네 가지 인사이트 중, 두 가지를 예시로 가설과 검증 지표를 설정했다. 먼저‘앱 주문 보다 현장 주문을 선호’하는 고객 행동으로 알 수 있는 것은 ‘앱 주문 경험 가치가 “빠름”이 아닌, 다른 가치가 필요하다는 점’이다. 이때 서비스는 ‘더 좋은 경험을 주는 것’으로 접근해야 한다. 고객이 커피 주문하는 경험을 방해하는 것은 무엇일까. 그것을 제거하여 더 좋은 경험을 제공할 수 있을 것이다.

고객은 항상 마시는 음료가 있거나 간혹 새로운 메뉴를 시도해 보는 경우로 나뉜다. 그렇다면 개인화를 통해 두 가지 가설을 검증할 수 있겠다. 첫째 가설은 ‘주로 주문하는 음료를 원클릭으로 재주문할 수 있다면, 앱 주문율이 증가할 것이다.’이며, 또 다른 가설로는 ‘선호하는 음료 스타일에 따라 새로운 메뉴 3가지 추천하여 앱이 대신 선택을 줄여주면, 앱 주문율이 증가할 것이다.’이다. 이에 대한 검증 지표로 ‘같은 음료 재주문 비율’, ‘추천 메뉴 클릭률’, ‘전체 앱 주문 전환율’ 등으로 측정할 수 있겠다.

다음으로, ‘리워드/보상에 대한 인식 차이’를 통해 알 수 있는 것은 리워드가 앱을 사용하는 행동 유도 장치로 작동하지 않는다는 점이다. 이 경우 고객에게는 “즉각적이고 체감되는 가치”가 필요하다. 그렇다면 다음 가설을 설정할 수 있겠다. ‘고객은 단순 포인트 적립보다 “즉각적 보상”이 있을 때 앱 사용 빈도가 증가한다.’를 가설로 두고, 즉각적 보상을 주는 경험을 설계해 가설 검증을 할 수 있겠다. 예로 ‘주문 즉시, 무료 사이즈 업 혹은 즉시 할인 쿠폰을 제공하면 앱 사용 빈도가 증가할 것이다.’를 가설로 두어 실행하여, 검증 지표로 리워드 페이지 접속률, 앱 주문 전환율로 측정할 수 있을 것이다.

해외 시장에서 앱 서비스를 성공적으로 정착시키기 위해, 혹은 새로운 타깃 고객으로 새로운 시장을 개척하려 할 때, 중요한 것은 단순한 기능이나 UX가 아닌 타깃 고객이 가진 문제를 이해하는 것이다. 이러한 환경에서는 기존 시장에서 검증된 가설이나 데이터에 의존하기 어렵기 때문에, 문제 정의의 출발점부터 다시 고객을 이해하는 과정이 필요하다. 이번 글에서 다룬 Customer Journey Shadowing은 바로 이러한 상황에서 유용한 방법으로, 사용자의 말이 아닌 실제 행동을 기반으로 숨겨진 문제를 발견할 수 있게 한다.

결국 중요한 것은 “이 시장의 고객은 어떤 문제를 중요하게 느끼는가”를 먼저 정의하는 것이다. Customer Journey Shadowing을 통해 얻은 행동 기반 인사이트는 단순한 관찰에 그치지 않고, PMF 관점에서 의미 있는 가설로 전환될 때 실행 가능한 전략이 된다. 따라서 새로운 국가나 시장에서 제품을 확장할 때는 기능 중심이 아니라, 고객 여정 기반의 ‘문제 재정의 → 행동 관찰 → 가설 수립 → 검증’의 반복 구조가 필수일 것이다.

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

21
요즘IT

막힐 때마다 직접 만들었더니, AI 풀스택 기업이 된 사연

이 글은 엘리스그룹과 함께 요즘IT 브랜디드 콘텐츠로 제작했습니다.

최근 AI 시장에서 일어나고 있는 변화가 있습니다. 바로 경쟁의 축이 '모델'에서 '인프라'로 이동하고 있다는 겁니다. 여기서 핵심은 ‘AI 에이전트’입니다. 에이전트는 단순 챗봇과 달리, 복잡한 태스크를 스스로 분해하고, 여러 툴을 호출하고, 결과를 추론하여 다음 단계를 결정합니다.

문제는 이 과정에서 토큰 소비량이 기하급수적으로 증가한다는 건데요. AI 풀스택 기업 엘리스에 따르면, 단순 챗봇에 비해 5~30배 정도, 추론이 깊어지면 최대 83배까지도 늘어납니다. 여기서 중요한 변화가 생깁니다. AI 개발 초기엔 비용의 대부분이 모델을 학습시키는 데 들었습니다. 방대한 데이터를 모아 GPU로 훈련시키는 과정이죠. 그런데 에이전트가 확산되면서, 이제는 그 훈련된 모델을 매일 작동시켜 답을 만들어내는 비용, 즉 추론 비용(Inference Cost)이 더 커졌습니다.

쉽게 말하면 AI를 만드는 비용보다, AI를 매일 쓰는 비용이 더 많이 드는 시대가 된 거죠. 그러다 보니 GPU를 얼마나 효율적으로 확보하고, 운영하느냐가 곧 기업의 경쟁력이 됩니다.

그러나 이런 인프라 문제를 두고, 쉽게 결정을 내리긴 어렵습니다. 해외 클라우드를 쓰자니 비용과 데이터 주권이 걸리고, 직접 구축하자니 초기 자본과 운영 부담이 따릅니다. 어떤 인프라를 써야 하는지, 보안 조건을 충족하면서 GPU를 쓸 수 있는 구조가 있는지, 무엇보다 PoC(Proof of Concept)에서 전사 확장으로 어떻게 넘어갈지 등이 현실적으로 다가옵니다.

그래서 요즘IT는 이 흐름을 가장 가까이서 지켜본 팀을 만나보기로 했습니다. 바로 GPU 클라우드를 직접 구축하고 운영해 온 AI 풀스택 기업, 엘리스입니다. 학습에서 추론으로 수요가 이동하는 변화를 현장에서 체감해 왔고, 국내 CSP 최초로 GPU Spot 요금제를 출시한 것도 그 흐름의 일부였고요.

이들이 직접 겪어온 이야기를 듣기 위해, 엘리스 박정국 CTO와 김시완 클라우드 전략이사를 만나 인터뷰를 진행했습니다. 그리고 실전에서 기업들의 AX 전환이 막히는 이유와 체크리스트도 함께 정리해 봤습니다.

에이전트 시대를 살아가는 지금, GPU 수요 패턴도 빠르게 바뀌고 있습니다. 학습 중심에서 추론 중심으로, IT 기업에서 전통 기업으로 말이죠. 그렇다면 실제 현장에서는 어떤 변화가 일어나고 있을까요?

김시완 클라우드 전략이사: 예전에는 GPU를 학습용으로 문의하시는 분들이 많았는데, 요즘에는 모델을 직접 올려서 추론용으로 써보고 싶어 하는 수요가 많이 늘었습니다. 2년 전 온디맨드 서비스를 처음 내놨을 때와 비교하면, GPU를 직접 쓰는 분들이 훨씬 많아졌고요. 확실히 대중화되고 있다는 느낌이 많이 듭니다.

박정국 CTO: GPU를 직접 구축해보겠다고 시작하면, 생각보다 쉽지 않다고 다들 느끼십니다. GPU는 다루기 어렵고, 전기도 많이 먹고, 초기 자본도 크기 때문이죠. 시행착오로 낭비하는 시간도 결국 다 비용이고요. 만약 2년을 쓴다고 가정했을 때, 직접 사서 운영하는 비용과 클라우드 서비스를 쓰는 비용을 TCO(Total Cost of Ownership, 초기 구매 비용뿐 아니라 운영·유지보수·인력까지 포함한 총소유비용) 기준으로 비교해 보시는 걸 추천합니다.

김시완 클라우드 전략이사: 요즘은 새 AI 모델이 출시되어도 일주일이 지나면 바로 구식이 되는 시대입니다. GPU도 마찬가지예요. 빌딩형 데이터센터를 직접 구축하면 3~5년이 걸리는데, 완공 시점에 이미 설계가 구식이 되는 경우가 있습니다. 보안이나 데이터 주권 때문에 자체 구축이 꼭 필요하다면, PMDC처럼 3개월 안에 구축 가능한 모듈형 방식이 현실적인 대안이 될 수 있어요.

박정국 CTO: GPU 사업을 하다 보면 항상 발생하는 패턴이 있습니다. 100% 가동이 사실상 불가능하다는 건데요. 학습을 돌리다가도 데이터 준비를 하는 동안 GPU가 쉬게 되거든요. 저희는 그 유휴 시간이 짧게 쓰는 워크로드 패턴과 맞아떨어진다는 걸 발견했습니다. 그래서 유휴 자원을 수요에 맞게 제공하자는 게 스팟 요금제의 출발점이었죠.

박정국 CTO: 요금제는 워크로드 성격에 따라 다릅니다. 장기간 안정적으로 GPU를 써야 한다면 약정형(Reserved)이 맞고, 개발이나 PoC처럼 필요할 때 바로 쓰고 싶다면 온디맨드(On-demand)가 적합합니다. 실험, 배치 학습, 에이전트 추론 테스트처럼 중간에 잠깐 끊겨도 괜찮은 워크로드라면 스팟(Spot)이 가장 효율적이고요. 세 가지 모두 같은 인프라에서 같은 가상화 솔루션으로 제공되기 때문에 품질의 차이는 없고, 정책적인 부분만 다릅니다.

또 아직 인프라를 갖추지 못한 기업이라면, 먼저 2년 치 TCO(Total Cost of Ownership, 초기 구매 비용뿐 아니라 운영·유지보수·인력까지 포함한 총소유비용)를 계산해 보시길 권장합니다. 클라우드 서비스로 시작해서 워크로드를 파악한 다음, 필요하면 확장하는 방식이 현실적인데요. 보안이나 데이터 주권 때문에 자체 구축이 필요하다면, AI PMDC를 고객사 현장에 연결하는 하이브리드 방식도 함께 고려해 볼 수 있습니다.

인터뷰에 나온 것처럼, GPU 인프라 도입은 단순히 하드웨어를 사는 문제가 아닙니다. 비용 구조를 어떻게 설계하느냐, 보안을 어디서 통제하느냐, 어떤 요금제를 조합하느냐까지 함께 고민해야 하죠. 엘리스도 이 답을 찾기까지는 여러 시행착오를 거쳤다고 합니다. 이제 교육 플랫폼이 어쩌다 데이터센터까지 직접 만들게 됐는지, 그 과정이 어떻게 고객사의 AX 전환을 돕는 경험으로 이어졌는지 따라가 보겠습니다.

많은 분들이 엘리스를 교육 플랫폼으로 알고 계실 텐데요. 엘리스는 원래 코딩 교육 플랫폼으로 시작했습니다. 그래서 학생들이 브라우저에서 바로 코드를 실행할 수 있어야 했고, 그러려면 컨테이너 기반 클라우드 실습 환경이 필요했습니다. 처음엔 AWS나 GCP를 썼지만, 이후 AI 교육에 대한 수요가 늘면서 GPU가 필요해졌습니다. 그런데 당시 대형 클라우드 회사들의 GPU 서비스가 AI 워크로드에 맞게 최적화되어 있지 않았다고 합니다.

그래서 "빌리는 것보다 직접 만드는 게 낫겠다"라는 결론을 내린 게 2021년이었습니다. 그때부터 엘리스는 GPU 클라우드를 직접 구축하기 시작했고, 2022년에는 컨테이너 한 대에 A100 GPU를 넣은 첫 번째 모듈형 데이터센터(AI PMDC)를 만들었습니다.

엘리스 김재원 대표는 기자간담회를 통해 "단순히 1~2년 내에 갑자기 클라우드를 하겠다고 선언한 게 아니라, 10년 전부터 복잡한 교육 환경의 실습 클라우드를 제공하다가 직접 GPU를 구축하게 된 것"이라고 설명했는데요.

그렇게 GPU 클라우드를 운영하기 시작하니 다음 문제가 보였습니다. 고객사 교육을 진행하다 보니, 기업들이 AI를 실제 업무에 쓰려면 내부 문서를 AI가 읽을 수 있어야 한다는 걸 알게 된 것이죠. 범용 AI 모델은 복잡한 표 구조가 들어간 계약서, 한글로 작성된 보고서, 기업마다 다른 양식의 PDF 앞에서 자주 막혔습니다. 그 다음엔 보안 문제도 뒤따랐습니다. 고객사 내부 데이터를 외부 서버로 보내는 걸 허용하지 않는 기업들이 많았고, 금융·의료·공공기관은 법적 제약까지 있었습니다.

결국 이런 문제들도 직접 풀 수밖에 없었습니다. 문서 문제는 특화 모델을 개발해 대응하고, 보안 문제는 고객사 데이터센터와 엘리스 인프라를 직접 연결하는 하이브리드 구조를 만드는 방식으로요. 막힐 때마다 직접 만드는 쪽을 택하다 보니, 어느새 인프라부터 모델까지 전 레이어를 직접 운영하는 구조가 된 겁니다.

이 과정에서 엘리스는 수백 곳의 고객사가 AI 전환을 추진하며, 공통으로 막히는 지점들을 반복해서 목격하게 됩니다. 그 문제들은 엘리스가 먼저 겪어온 것들이기도 했죠. 그래서 실전에서 왜 어려운지, 그 해결 방법이 무엇인지도 제안했습니다.

AI 도입의 첫 번째 관문은 모델 선택이 아니라, 데이터 준비입니다. 범용 AI 모델은 한글 PDF, 복잡한 표 구조가 들어간 보고서, 기업마다 다른 양식의 문서를 제대로 처리하지 못하는 경우가 많습니다. 글로벌 모델이 한국 기업 특유의 문서 포맷을 학습하지 않았기 때문이죠.

이때 확인 방법은 간단합니다. 실제로 쓰려는 AI 모델에 우리의 핵심 문서를 넣어보는 겁니다. 표가 많은 계약서, 한글로 작성된 내부 보고서, 그룹웨어에서 뽑은 PDF 등 실제 업무에서 가장 자주 쓰는 포맷 10개 정도를 테스트해 보면 어디서 막히는지 바로 나옵니다. 여기서 못 읽는다면 선택지는 두 가지로 나뉩니다. 해당 포맷에 맞는 전처리 파이프라인을 별도로 구축하거나, 그 포맷에 특화된 모델을 따로 검토할 수 있습니다.

기업 내부 데이터를 외부 AI API로 보내는 것에 대한 부담은 업종을 가리지 않습니다. 금융·의료·공공기관의 경우 법적 제약이 있고, 일반 기업도 영업 기밀·인사 정보는 외부로 보내기 어렵습니다. 그래서 외부 AI API를 쓸지, 자체 인프라에서 돌릴지는 기술 문제이기 전에, 보안과 법적 요건의 문제인데요. 도입 전, 아래 세 가지를 먼저 확인해야 합니다.

세 질문에 하나라도 "그렇다"가 나오면 외부 API 단독 방식은 재검토가 필요합니다. 구조적으로 보면 외부 API, 온프레미스, 하이브리드 세 가지 선택지가 있는데요. 외부 API는 빠르게 시작할 수 있지만 데이터 통제권이 약하고, 온프레미스는 통제권이 높지만 초기 비용과 운영 부담이 큽니다. 그래서 하이브리드 방식은 민감 데이터는 내부에서, 나머지는 외부 클라우드에서 처리하기 때문에, 절충점이 될 수 있습니다.

사실 기업에서 PoC를 성공해도 전사 확장에는 실패하는 경우가 굉장히 많습니다. 가장 흔한 원인은 두 가지인데요.

첫째, 의사결정권자가 AI로 무엇을 할 수 있는지 모르면 예산 승인이 나지 않습니다. PoC 결과를 나중에 보고하는 방식으로는 부족합니다. 기획 단계부터 의사결정권자가 함께 참여해서 어떤 문제를 어떻게 풀 것인지를 같이 설계해야 이후 확장이 수월해집니다.

둘째, 전사 확장을 담당할 내부 AI 챔피언이 없으면 PoC 성공이 그 팀에서 멈춥니다. AI 리터러시가 조직 전체에 고르게 없으면 확산 속도가 느려지기 때문입니다. PoC를 시작할 때부터 "이게 성공하면 다음 팀으로 어떻게 넘길 것인가"를 미리 설계해두고, 그 전파를 담당할 사람을 지정해두는 것이 전제 조건입니다.

엘리스가 AX 교육에서 임원 교육을 가장 먼저 진행하는 이유도 여기 있습니다. 엘리스 김재원 대표는 "임원들이 교육을 듣고 나온 아이디어들이 프로젝트 개발로 이어지고, 그것이 다시 인프라를 활용하는 방향으로 가고 있다"고 설명했습니다.

기업에서 GPU가 필요한 단계가 되면 이 질문이 반드시 나올 겁니다. 직접 구매가 저렴하게 느껴질 수도 있지만, 실제 TCO를 계산해보면 다른 경우가 많습니다. TCO(Total Cost of Ownership)는 단순 구매가가 아닌 운영 기간 전체에 걸친 총 소유 비용인데요. GPU의 경우 하드웨어 구매비 외에도 전기, 냉각, 네트워크 인프라 구축비, 운영 인력, 장애 대응 비용, 그리고 처음에 필연적으로 발생하는 시행착오 비용까지 포함해서 계산해야 합니다.

엘리스의 경우, GPU 클라우드를 직접 구축하고 운영하면서 이 비용 구조를 누구보다 잘 알게 됐는데요. 그래서 가격 정책을 잡을 때, 2년 치 TCO 기준으로 직접 구매보다 클라우드가 더 유리하게끔 포지셔닝했습니다.

지금까지 살펴본 것과 같이 AI 도입에 실패하는 기업들을 보면 공통점이 있습니다. 바로 기술보다는 설계의 문제라는 건데요. 무엇을, 어떤 순서로, 어떤 구조로 할지를 미리 설계하지 않은 채 시작했기 때문입니다. 이렇게 되면 좋은 AI 모델을 골랐는데 우리 문서를 못 읽고, 에이전트를 만들었는데 보안 검토에서 막히고, PoC는 됐는데 전사 확장이 안 되는 상황이 벌어집니다.

엘리스가 10년간 겪어온 것도 같은 문제였습니다. 클라우드가 필요할 때 어떻게 구축할지, GPU가 필요할 때 빌릴지 직접 만들지, 고객사 데이터가 외부로 나가면 안 될 때 어떤 구조로 풀지, 매번 설계의 문제였지만, 직접 답을 찾아갔습니다.

만약 우리 팀이 현재 AX 전환을 고민하고 있다면, 이번 글에서 다룬 네 가지 질문에 먼저 답해보시길 바랍니다. 어떤 도구를 쓸지보다, 어떤 구조로 시작할지를 먼저 그려보는 일이 더 중요합니다. 또 우리 조직에 맞는 전략을 아직 찾지 못했다면, 이미 그 과정을 경험한 곳의 도움을 받는 것도 좋은 방법입니다. 여러분의 조직은 지금 어느 단계에 와 있나요?

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

22
요즘IT

2개의 스쿼드를 AI와 함께 이끌어봤습니다

국내 IT 기업은 한국을 넘어 세계를 무대로 할 정도로 뛰어난 기술과 아이디어를 자랑합니다. 이들은 기업 블로그를 통해 이러한 정보를 공개하고 있습니다. 요즘IT는 각 기업의 특색 있고 유익한 콘텐츠를 소개하는 시리즈를 준비했습니다. 이들은 어떻게 사고하고, 어떤 방식으로 일하고 있을까요?

이번 글에서는 글로벌 알람 앱 ‘알라미’를 서비스하는 딜라이트룸이 2개의 스쿼드를 각각 주니어 AI에게 맡긴 과정에 대해 소개합니다.

올해 들어 제품 내에서 살펴야 할 피처의 넓이와 깊이가 모두 깊어졌고, 인수한 제품의 특성상 우리가 아직 모르는 동작도 훨씬 많아졌습니다. 그 와중에 2개의 스쿼드의 PO 역할을 담당하려다 보니, 물리적으로 혼자 감당할 수 있는 범위를 이미 넘어선 상황이었죠. 그래서 두 주니어 AI를 통해 빈자리를 단단하게 채워보려고 했습니다. 그 과정을 지금부터 소개하겠습니다.

Devin에게 부여하는 역할은 크게 네 가지입니다.

“이 기능 지금 어떻게 동작해?” 하고 물으면 코드를 읽고 플로우를 정리해 주고, 관련 수치까지 뽑아줍니다. 복잡한 코드를 대신 읽고 구조화해 주기 때문에, 기획 단계에서 많은 리소스를 아낄 수 있습니다. 인수한 제품이라 우리가 모르는 동작이 훨씬 많은 환경에서는 특히 유용합니다.

문제가 터졌을 때 원인을 함께 디깅 합니다. 영향을 줄 수 있는 코드 내 다양한 변인을 같이 검토해 주고, 과거 커밋 히스토리까지 알고 있기 때문에 “이전에는 어떻게 동작했는지”도 추적할 수 있습니다.

간단한 코드 수정은 직접 해주기도 합니다. 물론 더 대단한 개발도 해주기야 하겠지만, 아직은 그 결과물을 온전히 신뢰하기 어려운 단계입니다. (그가 책임을 지지는 못하기 때문에…) 운영상의 불편함을 한 번의 코딩으로 갈음해 주는 역할도 해주곤 합니다. 사실 이 역할을 더 많이 활용해야 하는데, 이번 분기에는 미진했네요. 다음 분기를 기약해 봅니다. 아무래도 백로그가 잔뜩 쌓여있을 때 더 빛을 발할 것 같네요.

예상 임팩트 계산, 코호트 분석, 교차 분석도 수행합니다. 매출 데이터만 해도 웹 결제냐 앱 결제냐에 따라 참고해야 할 소스가 다르고, 유저 액티비티 값 역시 서버값과 클라이언트값을 잘 교차해서 써야 합니다. Devin은 AMP, Stripe, Qonversion 등 여러 데이터 소스를 넘나들며 이걸 해주고, taxonomy도 이미 파악하고 있어서 매번 설명할 필요가 없습니다.

또한 때로는 무의미해 보일 수 있을 정도로 세세한 데이터 분석을 해보고 싶을 때가 있는데, (간혹 그 속에서 좋은 시드를 찾을 때가 있긴 하니까) 그럴 때도 데빈이는 묵묵히, 또 빠르게 결과 값을 가져다주어 속 시원함을 제공해 주기도 합니다.

Claude가 맡은 메인 역할은 세 가지입니다.

가장 많이 쓰는 역할입니다. 문제 정의가 틀어졌을 때, 더 나은 대안이 있을 때, 논리에 구멍이 있을 때, 리스크를 놓쳤을 때, 대화를 통해 잡아냅니다. 실제로 백로그 검토 및 쟁점 정리, 온보딩 이후 문제 정의와 솔루션 기획, 스쿼드 회고 정리, 온보딩 플로우 재구성 등 다양한 국면에서 이 역할을 활용했습니다.

저는 맥락을 최대한 주기 위해 raw data를 통째로 던지는 편입니다. 두서없이 적어 내려간 사고 흐름, 유저 인터뷰 원문, 서베이 응답 같은 날것의 데이터를 문서 목적에 맞게 정리해 줍니다. 대부분의 PRD와 분석 문서 등 주요 문서들은 클로드가 작성해 주죠. 특히 이번 분기는 영어권 국가 유저 인터뷰를 진행하느라 영어 <> 한국어 간 넘나듦이 문서상에서도 빈번했는데, 알아서 어련히 깔끔하게 잘해주니 이보다 든든할 수 없었죠.

주어진 데이터와 기획 의도, 맥락을 기반으로 가설을 검증하고 후속 액션 아이템을 뽑아줍니다. 데빈이가 실제 코드 베이스와 데이터베이스를 넘나들 수 있는 역량이 있다면, 클로드는 그걸 읽고 해석하는 두뇌가 더 명석합니다. 둘의 합작으로 유의미한 분석 결과들을 내주고 있습니다.

이보다 마이너한 활용도 있습니다.

Visualizer로서 그래프, 다이어그램, 발표 자료 같은 것들을 빠르게 만들어주고, Copywriter로서 완벽한 카피는 아니더라도 시드를 발산하는 데 도움을 줍니다. 반면, Researcher로는 거의 쓰지 않습니다. 그 이유는 보통 레퍼런스 리서치를 할 때는 실제 그 앱들을 직접 만져보며, 화면과 플로우를 확인해야 제대로 알 수 있는 영역이라, AI가 대체하기 어렵습니다.

여기까지 읽으면 “딸깍” 한 번이면 AI가 다 해주는 것처럼 들릴 수 있습니다. 하지만 이 둘은 결국 주니어입니다. 그것도 성향이 좀 다른 주니어들입니다. 그래서 기대치를 어느 정도 낮추고, 적절하게 위임해야 합니다.

Devin은 부지런하지만 좀 덜렁거리는 타입입니다.

참고해야 할 코드베이스나 데이터 소스를 착각하는 경우가 종종 있어서, 결과물은 반드시 크로스 체크해야 합니다. 또한 조사해야 할 영역을 명확히 좁혀주지 않으면, 꽤 멀리 엄한 곳까지 헤매다 돌아오기도 합니다. 그래서 스코프를 잘 잡아주는 게 중요합니다.

Claude는 더 똑똑하지만, 다른 종류의 주의가 필요합니다.

전체 맥락을 다 품지 못하기 때문에 우선순위를 혼자 잘못짚을 때가 있고, 불필요한 내용을 과하게 담아서 오히려 가독성을 떨어뜨리기도 합니다. 없어도 전체 이해에 지장 없는 건 과감히 쳐내는 게 좋습니다. 임팩트 추정에서는 여러 변수에 가정치를 넣는 경우가 있는데요. 그 가정치가 적절한지는 PO의 직관으로 반드시 검증해야 합니다. 정리된 결과물의 직접 검수하는 건 필수입니다.

둘 다 결국 같은 원칙이 적용됩니다.맥락을 나보다는 잘 알 수가 없습니다. 가장 상위에서의 머리 역할은 제가 수행해줘야 합니다.

다만, 주니어를 다루듯이 대한다는 건 한계만 인식하라는 뜻은 아닙니다.맥락을 잘 넘겨주고, 역할을 명확히 정의하고 피드백을 주면, 똑똑한 주니어답게 점점 더 일의 합이 잘 맞습니다. 가르쳐주면 가르쳐줄수록 일을 더 잘하는 친구들이니까요.

AI 기술이 워낙 빠르게 발전하고 있으니, 다음 분기에는 아마도 이 둘의 직급을 올려줄 수 있지 않을까 기대하고 있습니다. 그리고 느낌상 둘이 직접 소통할 수 있게 해 두면 더 수월할 것 같은데, 그건 다음 분기에 다뤄보겠습니다. 읽어주셔서 감사합니다!

<원문>

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

23
요즘IT

유니온 타입에서 막히는 순간, 타입 좁히기가 필요하다

타입스크립트를 쓰다 보면 하나의 변수가 여러 타입을 가질 수 있는 상황을 자주 만나게 됩니다. 함수의 매개변수가 string일 수도, number일 수도 있고, API 응답이 성공 데이터일 수도, 에러 객체일 수도 있습니다. 이처럼 다양한 가능성을 안고 있는 변수를 다룰 때, 타입스크립트는 꽤 보수적으로 반응합니다. 해당 변수가 “어떤 타입인지 아직 모르겠으니” 특정 타입 전용 메서드를 사용하지 못하도록 막아버리는 것입니다.

이 문제를 해결하는 방법이 바로 타입 좁히기(Type Narrowing)입니다. 타입 좁히기란 조건문 등을 활용해 넓은 타입을 더 구체적인 타입으로 확정해가는 과정을 말합니다. 복잡하게 들릴 수 있지만, 사실 우리가 자바스크립트에서 이미 자연스럽게 하고 있던 방어적 코딩 패턴을 타입스크립트가 인식하고 활용해주는 것에 가깝습니다.

이번 글에서는 타입 좁히기가 왜 필요한지부터 실무에서 자주 쓰이는 핵심 패턴까지 단계별로 살펴보겠습니다.

미리 요점만 콕 집어보면?

타입 좁히기가 왜 필요한지 이해하려면, 먼저 유니온 타입의 한계부터 살펴봐야 합니다.

유니온 타입은 여러 타입 중 하나가 될 수 있는 변수를 정의할 때 사용합니다. 예를 들어, 문자열과 숫자를 모두 받을 수 있는 함수를 만든다고 해봅시다.

function printValue(value: string | number) {

console.log(value.toUpperCase()); // ❌ 오류

}

이 코드는 에러가 발생합니다. value가 string일 수도, number일 수도 있기 때문에 타입스크립트는 string 전용 메서드인 toUpperCase()를 호출하지 못하게 막는 것입니다. 반대로 number 전용 메서드인 toFixed()도 마찬가지로 쓸 수 없습니다. 유니온 타입의 변수에는 모든 구성 타입이 공통으로 갖고 있는 프로퍼티와 메서드만 사용할 수 있기 때문입니다.

그렇다면 어떻게 해야 할까요? 이 변수가 string인지 number인지를 먼저 확인하고, 확인된 상태에서 해당 타입의 기능을 사용하면 됩니다. 바로 이것이 타입 좁히기입니다.

아래처럼 typeof를 사용한 조건문을 추가해 봅시다.

function printValue(value: string | number) {

if (typeof value === "string") {

console.log(value.toUpperCase()); // ✅ string 타입으로 확정

} else {

console.log(value.toFixed(2)); // ✅ number 타입으로 확정

}

}

if 블록 안에서 typeof value === "string" 조건을 통과했다면, 타입스크립트는 해당 블록 안의 value를 string 타입으로 확정합니다. else 블록에서는 string이 아닌 나머지, 즉 number 타입으로 확정됩니다. 별도의 타입 단언(as)을 쓰지 않아도, 조건문만으로 타입을 안전하게 구분할 수 있는 것입니다.

이렇게 조건문 등을 활용하여 타입의 범위를 좁혀나가는 표현들을 타입 가드(Type Guard)라고 부릅니다. 타입 좁히기를 실현하는 구체적인 도구가 바로 타입 가드인 셈입니다. 이제 실무에서 자주 쓰이는 타입 가드 패턴들을 하나씩 살펴보겠습니다.

타입스크립트에서 제공하는 타입 가드는 여러 종류가 있습니다. 상황에 따라 적합한 패턴이 다르기 때문에, 각 패턴의 특성과 사용 시점을 정리해두면 유용합니다.

typeof는 가장 기본적이고 자주 사용되는 타입 가드입니다. 자바스크립트의 typeof 연산자가 반환하는 문자열을 기준으로 타입을 구분합니다.

function formatInput(input: string | number | boolean) {

if (typeof input === "string") {

return input.trim();

} else if (typeof input === "number") {

return input.toLocaleString();

} else {

return input ? "참" : "거짓";

}

}

typeof는 "string", "number", "boolean", "undefined", "object", "function", "symbol", "bigint" 중 하나를 반환합니다. 주의할 점은 typeof null이 "object"를 반환한다는 것입니다. 따라서 null과 객체를 동시에 다루는 경우에는 typeof만으로는 정확하게 구분하기 어렵습니다. null 체크를 별도로 추가하거나, 다른 타입 가드를 함께 사용해야 합니다.

function process(value: string | null) {

if (typeof value === "string") {

return value.toUpperCase(); // ✅ null이 아님이 보장됨

}

return "빈 값";

}

typeof는 원시 타입을 구분할 때 유용하지만, 객체의 구체적인 종류(Date인지, Array인지, 커스텀 클래스인지)를 구분하기에는 적합하지 않습니다. 객체는 typeof로 확인하면 전부 "object"가 반환되기 때문입니다. 이런 경우에는 다음에 소개할 instanceof를 사용해야 합니다.

instanceof는 어떤 값이 특정 클래스의 인스턴스인지를 확인하는 연산자입니다. 주로 Date, Error 같은 내장 클래스나 직접 정의한 클래스의 인스턴스를 구분할 때 사용합니다.

function formatDate(value: string | Date) {

if (value instanceof Date) {

return `${value.getFullYear()}년 ${value.getMonth() + 1}월 ${value.getDate()}일`;

}

return value;

}

에러 처리에서도 자주 쓰입니다. try-catch 블록에서 catch한 에러가 어떤 종류인지 구분할 때 instanceof가 유용합니다.

function handleError(error: unknown) {

if (error instanceof TypeError) {

console.log("타입 에러:", error.message);

} else if (error instanceof RangeError) {

console.log("범위 에러:", error.message);

} else {

console.log("알 수 없는 에러");

}

}

다만 instanceof는 클래스 기반 타입에만 사용할 수 있습니다. 인터페이스나 타입 별칭 그 자체는 컴파일 과정에서 제거되어 런타임에 남지 않으므로, 이를 직접 instanceof로 검사할 수는 없습니다. 즉, 자바스크립트로 변환된 코드에는 인터페이스에 대한 정보가 남아있지 않으므로 instanceof로 비교할 대상 자체가 없는 것입니다. 물론 해당 인터페이스를 구현한 클래스가 있다면, 그 클래스를 기준으로 instanceof 검사를 하는 것은 가능합니다. 하지만 인터페이스 자체를 직접 검사할 수 없다는 점은 동일합니다.

in 연산자는 객체에 특정 프로퍼티가 존재하는지를 확인하는 방식으로 타입을 좁힙니다. 인터페이스나 타입 별칭으로 정의한 서로 다른 객체 타입을 구분할 때 특히 유용합니다.

interface Dog {

name: string;

bark: () => void;

}

interface Cat {

name: string;

meow: () => void;

}

function greetPet(pet: Dog | Cat) {

if ("bark" in pet) {

pet.bark(); // ✅ Dog 타입으로 확정

} else {

pet.meow(); // ✅ Cat 타입으로 확정

}

}

Dog에는 bark가 있고 Cat에는 없기 때문에, "bark" in pet 조건으로 두 타입을 구분할 수 있습니다. 이처럼 in 연산자는 타입마다 고유하게 존재하는 프로퍼티를 기준으로 분기할 때 효과적입니다. 다만, 두 타입이 완전히 동일한 프로퍼티 구조를 갖고 있다면 in만으로는 구분이 어렵습니다. 이런 경우에는 뒤에서 다룰 판별된 유니온 패턴이 더 적합합니다.

기본 패턴을 정리하면 다음과 같습니다.

앞서 살펴본 기본 패턴만으로도 많은 상황을 커버할 수 있지만, 실무에서 마주하는 타입 분기는 조금 더 복잡한 경우가 많습니다. 여러 종류의 응답 객체를 구분하거나, 타입스크립트가 자동으로 추론하지 못하는 상황을 직접 처리해야 할 때가 있습니다. 이런 경우에 활용할 수 있는 고급 패턴들을 살펴보겠습니다.

실무에서 가장 많이 쓰이는 타입 좁히기 패턴입니다. 유니온을 구성하는 각 타입이 공통적으로 가지고 있는 리터럴 타입 필드를 기준으로 분기하는 방식입니다. 보통 type, status, kind 같은 필드가 이 역할을 합니다.

API 응답 처리를 예로 들어보겠습니다. 대부분의 API는 성공과 실패 시 응답 구조가 다릅니다.

interface SuccessResponse {

status: "success";

data: {

id: number;

name: string;

};

}

interface ErrorResponse {

status: "error";

errorCode: number;

message: string;

}

type ApiResponse = SuccessResponse | ErrorResponse;

여기서 status 필드가 판별자(discriminant) 역할을 합니다. 이 필드의 값이 "success"인지 "error"인지에 따라 타입이 자동으로 확정됩니다.

function handleResponse(response: ApiResponse) {

if (response.status === "success") {

console.log(response.data.name); // ✅ SuccessResponse로 확정

} else {

console.log(`에러 ${response.errorCode}: ${response.message}`); // ✅ ErrorResponse로 확정

}

}

switch문과 결합하면 더 깔끔하게 분기할 수 있습니다. 상태가 세 가지 이상으로 나뉘는 경우에 특히 유용합니다.

interface LoadingState {

status: "loading";

}

interface SuccessState {

status: "success";

data: string[];

}

interface ErrorState {

status: "error";

message: string;

}

type FetchState = LoadingState | SuccessState | ErrorState;

function renderUI(state: FetchState) {

switch (state.status) {

case "loading":

}

}

판별된 유니온의 장점은 코드의 의도가 명확하다는 것입니다. status 필드 하나만 보면 어떤 타입인지 바로 알 수 있기 때문에 가독성이 좋고, 새로운 상태가 추가되더라도 switch문에 case만 추가하면 되므로 확장도 용이합니다. 또한 never 타입을 활용한 exhaustive check를 함께 쓰면, 누락된 분기를 컴파일 단계에서 바로 잡아낼 수 있어 더 안전합니다. 리액트에서 API 호출 상태를 관리하거나, Redux 같은 상태 관리 도구에서 액션을 구분할 때도 이 패턴이 자주 사용됩니다.

지금까지 살펴본 패턴들은 타입스크립트가 조건문을 분석해서 자동으로 타입을 좁혀주는 경우였습니다. 하지만 타입스크립트가 자동으로 추론하지 못하는 상황도 있습니다. 예를 들어, 복잡한 조건을 별도 함수로 분리하면, 그 함수의 반환값이 boolean일 뿐 타입 좁히기로 연결되지 않습니다.

function isString(value: unknown): boolean {

return typeof value === "string";

}

function process(value: string | number) {

if (isString(value)) {

value.toUpperCase(); // ❌ 여전히 string | number

}

}

위 코드에서 isString 함수는 분명히 문자열 여부를 확인하고 있지만, 타입스크립트 입장에서는 그냥 boolean을 반환하는 함수일 뿐입니다. 조건문 안에서의 타입 좁히기가 작동하지 않습니다.

이런 상황에서 is 키워드를 사용하면 됩니다. 반환 타입을 value is string 형태로 선언하면, 이 함수가 true를 반환할 때 해당 매개변수가 특정 타입임을 타입스크립트에 알려줄 수 있습니다.

function isString(value: unknown): value is string {

return typeof value === "string";

}

function process(value: string | number) {

if (isString(value)) {

value.toUpperCase(); // ✅ string 타입으로 확정

}

}

이 패턴은 반복적으로 사용되는 타입 체크 로직을 함수로 분리할 때 특히 유용합니다. 여러 곳에서 동일한 타입 확인 조건을 작성하는 대신, 타입 가드 함수 하나를 만들어두면 코드의 중복을 줄이면서도 타입 안전성을 유지할 수 있습니다. 배열에서 null이나 undefined를 걸러내는 필터링 패턴에서도 자주 활용됩니다.

function isNotNull<T>(value: T | null): value is T {

return value !== null;

}

const items = ["사과", null, "바나나", null, "딸기"];

const filtered = items.filter(isNotNull);

// filtered의 타입: string[]

Array.filter에 일반적인 boolean 반환 함수를 넘기면 타입스크립트가 null이 제거되었다는 것을 대부분 인식하지 못해 (string | null)[] 타입이 유지되는데, is 키워드를 사용한 타입 가드를 넘기면 string[]으로 정확하게 추론됩니다.

타입 좁히기는 강력한 기능이지만, 실무에서 사용하다 보면 몇 가지 실수하기 쉬운 지점이 있습니다.

먼저 첫 번째로 주의할 것은 타입 단언(as)의 남용입니다. 타입 좁히기 대신 as로 강제 변환하면 코드가 짧아지는 것처럼 보이지만, 타입 안전성을 포기하는 것입니다. 실제 런타임 값이 해당 타입이 아닐 경우, 타입스크립트는 에러를 잡아주지 못합니다.

// ❌ 위험: 실제로 string이 아닐 수 있음

const value = someFunction() as string;

console.log(value.toUpperCase()); // 런타임 에러 가능

// ✅ 안전: 실제로 string인지 확인 후 사용

const value = someFunction();

if (typeof value === "string") {

console.log(value.toUpperCase());

}

두 번째는 콜백 함수 안에서 좁혀진 타입이 풀리는 경우입니다. 바깥 스코프에서 타입을 좁혀놨더라도, 콜백 안에서는 이 정보가 유지되지 않을 수 있습니다.

function process(value: string | null) {

if (value !== null) {

// 여기서는 string 타입으로 좁혀짐

setTimeout(() => {

console.log(value.toUpperCase()); // ✅ 이 경우는 동작함

}, 100);

}

}

위 예시처럼 재할당 가능성이 없고 제어 흐름상 안전하다고 판단되는 경우에는 콜백 안에서도 좁혀진 타입이 유지될 수 있습니다. 하지만 let으로 선언된 변수는 콜백이 실행되기 전에 다른 값이 할당될 수 있기 때문에, 타입스크립트의 제어 흐름 분석이 클로저 경계를 넘어서까지 안전하다고 보장하지 못하는 경우가 있습니다. 이런 상황에서는 좁혀진 값을 별도의 const 변수에 담아두는 방법이 안전합니다.

let value: string | null = getString();

if (value !== null) {

const confirmed = value; // string 타입으로 확정된 값을 별도 변수에 저장

setTimeout(() => {

console.log(confirmed.toUpperCase()); // ✅ 안전

}, 100);

}

이번 글에서는 타입스크립트의 타입 좁히기에 대해 살펴보았습니다. 코드를 작성하다 as를 사용하고 싶은 순간이 오면, 잠시 멈추고 타입 좁히기로 해결할 수 있는지 먼저 떠올려보세요. 대부분의 경우 조건문 한두 줄이면 충분하고, 그렇게 작성한 코드가 더 안전하고 읽기 쉬운 코드로 이어집니다. 타입 좁히기에 익숙해질수록 타입스크립트를 더 자신 있게 다룰 수 있게 될 것입니다.

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

24
요즘IT

에이전트 하네스 완전 해부

본문은 요즘IT가 Vivek Trivedy(비벡 트리베디) 님의 글<The Anatomy of an Agent Harness>를 번역한 글입니다. 필자는 LangChain의 프로덕트 매니저로, 에이전트·하네스·평가(Evals)를 담당하며 오픈소스 에이전트 프레임워크 개발을 이끌고 있습니다. 이전에는 AWS에서 과학자(Scientist)로 근무하며 Temple University에서 컴퓨터 과학 박사 학위를 취득했습니다.

이 글은 AI 에이전트 시스템에서 모델을 감싸는 인프라, 즉 '하네스(Harness)'의 개념을 정의하고, 파일시스템·샌드박스·메모리·컨텍스트 관리 등 핵심 구성 요소를 모델의 한계에서 역추적하여 도출하는 과정을 담고 있습니다. LangChain이 자사 코딩 에이전트의 하네스만 변경하여 Terminal Bench 2.0에서 Top 30에서 Top 5로 끌어올린 사례를 포함해, 하네스 엔지니어링의 현재와 미래를 구체적으로 소개합니다.

필자에게 허락을 받고 번역했으며, 글에 포함된 링크는 원문에 따라 표시했습니다.

모델이 아닌 모든 것이 하네스입니다. 하네스란 모델 그 자체가 아닌 모든 코드, 설정, 실행 로직을 말합니다. 날것의 모델(raw model)은 에이전트가 아닙니다. 하지만 하네스가 모델에게 상태(state), 도구 실행, 피드백 루프, 강제 가능한 제약 같은 것들을 부여하는 순간, 모델은 에이전트가 됩니다.

구체적으로 하네스는 다음과 같은 것들을 포함합니다.

에이전트 시스템에서 모델과 하네스의 경계를 나누는 방법은 여러 가지고, 꽤 지저분합니다. 하지만 제 생각에 위 정의가 가장 깔끔합니다. 왜냐하면 이 정의는 모델의 지능(intelligence)을 중심에 두고 시스템을 설계하도록 강제하기 때문입니다.

이 글의 나머지 부분에서는 하네스의 핵심 구성 요소들을 하나씩 살펴보면서, 모델이라는 핵심 프리미티브(primitive)에서 출발해 각 구성 요소가 왜 존재해야 하는지를 역으로 도출해보겠습니다.

우리가 에이전트에게 시키고 싶은 일들 중에는, 모델이 그 자체로는 할 수 없는 것들이 있습니다. 바로 이 지점에서 하네스가 등장합니다. 모델은 (대체로) 텍스트, 이미지, 오디오, 비디오 같은 데이터를 입력받아 텍스트를 출력합니다. 그게 전부입니다. 모델은 기본적으로 다음을 할 수 없습니다.

이것들은 모두 하네스 레벨의 기능입니다. LLM이라는 구조 자체가, 유용한 일을 시키려면 모델을 감싸는 어떤 기계 장치를 필요로 합니다.

예를 들어, "대화하기"라는 제품 UX를 만들려면 이전 메시지들을 추적하고 새 사용자 메시지를 덧붙이기 위해 모델을 while 루프로 감싸야 합니다. 이 글을 읽고 있는 분이라면 이미 이런 종류의 하네스를 써본 셈입니다. 핵심은, 우리가 원하는 에이전트의 행동을 하네스의 실제 기능으로 변환한다는 것입니다.

하네스 엔지니어링은 인간이 에이전트의 행동을 유도하기 위한 유용한 사전 지식(prior)을 주입하는 일입니다. 그리고 모델이 더 똑똑해질수록, 하네스는 이전에는 불가능했던 작업을 완수하도록 모델을 정교하게 확장하고 교정하는 용도로 쓰이고 있습니다.

모든 하네스 기능을 빠짐없이 다루지는 않을 겁니다. 목표는 "모델이 유용한 일을 하게 돕는다"는 출발점에서 일련의 기능들을 도출해보는 것입니다. 다음과 같은 패턴을 따라가 보겠습니다.

우리가 원하는(또는 고치고 싶은) 행동 → 모델이 그것을 달성하게 돕는 하네스 설계

우리는 에이전트가 실제 데이터와 상호작용하고, 컨텍스트에 담기지 않는 정보를 덜어내고, 세션을 넘나들며 작업을 지속하도록 하고 싶습니다.

모델은 컨텍스트 윈도우 안의 지식에 대해서만 직접 작업할 수 있습니다. 파일시스템이 도입되기 전에는 사용자가 모델에게 내용을 복사·붙여넣기 해야 했습니다. UX가 번거롭고, 자율 에이전트에는 적용할 수도 없습니다. 세상은 이미 작업을 위해 파일시스템을 쓰고 있었고, 덕분에 모델은 파일시스템 사용법을 수십억 토큰으로 자연스럽게 학습한 상태였습니다. 그래서 자연스러운 해결책은 이것이 됐습니다.

하네스는 파일시스템 추상화와 파일 시스템 작업(fs-ops)용 도구를 기본 탑재합니다. 파일시스템은 아마도 가장 근본적인 하네스 프리미티브일 것입니다. 다음과 같은 것들을 가능하게 하기 때문입니다.

파일시스템은 뒤에서 다시 등장합니다. 알고 보면 이것이 다른 여러 기능의 기반이 되는 핵심 하네스 프리미티브이기 때문입니다.

우리는 인간이 모든 도구를 미리 설계하지 않아도 에이전트가 자율적으로 문제를 해결하기를 원합니다.

오늘날 에이전트 실행의 주류 패턴은 ReAct 루프입니다. 모델이 추론하고, 도구 호출로 행동하고, 결과를 관찰하고, 이를 while 루프 안에서 반복하는 방식입니다. 하지만 하네스는 자기가 로직을 갖고 있는 도구만 실행할 수 있습니다. 사용자에게 가능한 모든 행동에 대한 도구를 일일이 만들라고 요구하는 건 좋은 해결책이 아닙니다. 더 나은 방법은 에이전트에게 bash 같은 범용 도구를 주는 것입니다.

하네스는 bash 도구를 기본 탑재해, 모델이 코드를 작성하고 실행하며 자율적으로 문제를 풀 수 있게 합니다. Bash와 코드 실행은 모델에게 컴퓨터를 쥐여주고 나머지는 알아서 하게 하는 방향으로 가는 큰 도약입니다. 모델은 미리 설정된 고정된 도구 세트에 갇히지 않고, 코드를 통해 즉석에서 자신만의 도구를 설계할 수 있습니다.

하네스는 여전히 다른 도구들도 함께 제공하지만, 코드 실행은 자율적 문제 해결의 기본 전략으로 자리 잡았습니다.

에이전트는 안전하게 행동하고, 결과를 관찰하며, 진전을 이룰 수 있는 적절한 기본 환경이 필요합니다. 모델에게 저장 공간과 코드 실행 능력을 줬지만, 이 모든 것이 어딘가에서 일어나야 합니다. 에이전트가 만든 코드를 로컬에서 그대로 실행하는 건 위험하고, 단일 로컬 환경은 대규모 에이전트 워크로드에는 적합하지 않습니다.

샌드박스는 에이전트에게 안전한 실행 환경을 제공합니다. 로컬 대신, 하네스가 샌드박스에 연결해 코드를 실행하고, 파일을 살펴보고, 의존성을 설치하고, 작업을 완료합니다. 이 방식은 격리된 안전한 코드 실행을 가능하게 합니다. 보안을 더 강화하려면, 하네스에서 허용 명령어를 화이트리스트로 지정하고 네트워크 격리를 강제할 수도 있습니다. 샌드박스는 확장성도 열어줍니다. 필요할 때 환경을 생성하고, 여러 작업에 병렬로 뿌리고, 끝나면 정리할 수 있기 때문입니다.

좋은 환경은 좋은 기본 도구들과 함께 옵니다. 하네스는 에이전트가 유용한 일을 할 수 있도록 도구를 구성할 책임이 있습니다. 언어 런타임과 패키지 사전 설치, git과 테스트용 CLI, 웹 상호작용 및 검증용 브라우저 등이 여기 포함됩니다.

브라우저, 로그, 스크린샷, 테스트 러너 같은 도구는 에이전트가 자기 작업을 관찰하고 분석할 수 있게 해줍니다. 이를 통해 에이전트는 자기 검증 루프를 만들 수 있습니다. 애플리케이션 코드를 작성하고, 테스트를 돌리고, 로그를 살펴보고, 에러를 고치는 식으로요.

모델은 기본적으로 자기 실행 환경을 스스로 구성하지 않습니다. 에이전트가 어디서 동작할지, 어떤 도구를 쓸 수 있을지, 무엇에 접근할 수 있을지, 어떻게 작업을 검증할지는 모두 하네스 수준의 설계 결정입니다.

에이전트는 이전에 본 것을 기억해야 하고, 학습 시점에는 존재하지 않았던 정보에도 접근할 수 있어야 합니다. 모델은 가중치와 현재 컨텍스트에 담긴 것 외에는 추가 지식이 없습니다. 모델 가중치를 수정할 수 없는 상황에서, "지식을 추가"하는 유일한 방법은 컨텍스트 주입입니다.

메모리 측면에서도 파일시스템이 다시 핵심 프리미티브로 등장합니다. 하네스는 AGENTS.md 같은 메모리 파일 표준을 지원하고, 에이전트 시작 시 이를 컨텍스트에 주입합니다. 에이전트가 이 파일을 추가하고 수정하면, 하네스는 업데이트된 내용을 다음 컨텍스트에 불러옵니다. 이는 일종의 지속적 학습입니다. 에이전트가 한 세션에서 얻은 지식을 지속 가능하게 저장하고, 그 지식을 이후 세션에 주입하는 방식이죠.

지식 컷오프(knowledge cutoff) 때문에, 모델은 사용자가 직접 제공하지 않는 한 새로 업데이트된 라이브러리 버전 같은 데이터에 직접 접근할 수 없습니다. 최신 지식을 위해서는 웹 검색과 Context7 같은 MCP 도구들이 에이전트가 학습 이후에 등장한 정보, 예컨대 최신 라이브러리 버전이나 최신 데이터에 접근하도록 도와줍니다.

웹 검색과 최신 컨텍스트 조회 도구는 하네스에 내장할 만한 유용한 프리미티브들입니다.

작업이 진행될수록 에이전트 성능이 나빠져서는 안 됩니다. 컨텍스트 부패(context rot)는 컨텍스트 윈도우가 채워질수록 모델이 추론과 작업 수행에서 나빠지는 현상을 말합니다. 컨텍스트는 귀중하고 희소한 자원이기 때문에, 하네스는 이를 관리할 전략이 필요합니다.

오늘날의 하네스는 사실상 좋은 컨텍스트 엔지니어링을 전달하는 수단입니다.

Compaction은 컨텍스트 윈도우가 가득 차려 할 때 무엇을 할지의 문제를 다룹니다. compaction이 없으면 대화가 컨텍스트 윈도우를 초과했을 때 어떻게 될까요? 한 가지 선택지는 API가 에러를 내는 것입니다. 좋지 않죠. 하네스는 이런 상황을 위한 전략이 필요합니다. compaction은 기존 컨텍스트를 똑똑하게 덜어내고 요약해서, 에이전트가 계속 작업할 수 있게 해줍니다.

도구 호출 오프로딩(Tool call offloading)은 큰 도구 출력이 유용한 정보 없이 컨텍스트를 어지럽히는 문제를 줄여줍니다. 하네스는 일정 토큰 수 이상인 도구 출력에 대해 앞뒤 토큰만 남기고, 전체 출력은 파일시스템에 옮겨두어 필요할 때만 모델이 접근할 수 있게 합니다.

스킬(Skills)은 에이전트 시작 시 너무 많은 도구나 MCP 서버가 컨텍스트에 로드되어, 일을 시작하기도 전에 성능이 떨어지는 문제를 해결합니다. 스킬은 점진적 공개(progressive disclosure)를 통해 이 문제를 푸는 하네스 수준의 프리미티브입니다. 모델이 시작 시 스킬의 front-matter를 컨텍스트에 싣겠다고 선택한 건 아니지만, 하네스가 이를 지원함으로써 모델을 컨텍스트 부패로부터 보호할 수 있습니다.

우리는 에이전트가 복잡한 작업을, 자율적으로, 정확하게, 긴 시간에 걸쳐 완수하기를 원합니다. 자율적인 소프트웨어 생성은 코딩 에이전트의 성배입니다. 하지만 오늘날의 모델들은 조기 종료(early stopping), 복잡한 문제 분해의 어려움, 여러 컨텍스트 윈도우를 넘어갈 때의 일관성 붕괴 같은 문제들을 겪습니다. 좋은 하네스는 이 모든 것을 설계에 반영해야 합니다.

여기서부터는 앞서 다룬 하네스 프리미티브들이 복리처럼 작동하기 시작합니다. 장기 작업은 여러 컨텍스트 윈도우를 넘어 작업을 지속하기 위해 지속 가능한 상태, 계획, 관찰, 검증을 모두 필요로 합니다.

에이전트는 긴 작업 동안 수백만 토큰을 만들어내기 때문에, 파일시스템이 작업을 지속 가능하게 담아 시간에 따른 진전을 추적합니다. 여기에 git을 더하면, 새로 시작한 에이전트가 프로젝트의 최신 상태와 히스토리를 빠르게 따라잡을 수 있습니다. 여러 에이전트가 함께 일할 때도 파일시스템은 공유된 작업 원장(ledger) 역할을 합니다.

Ralph Loop은 모델이 종료하려는 시도를 훅으로 가로채, 깨끗한 컨텍스트 윈도우에 원래 프롬프트를 다시 주입해 완료 목표를 향해 계속 일하게 하는 하네스 패턴입니다. 이 패턴이 가능한 건 파일시스템 덕분입니다. 각 반복은 새 컨텍스트로 시작하되, 이전 반복의 상태를 파일에서 읽어오기 때문입니다.

계획(planning)은 모델이 목표를 여러 단계로 분해하는 일입니다. 하네스는 좋은 프롬프트와, 파일시스템의 계획 파일 사용법에 대한 리마인더 주입을 통해 이를 지원합니다. 각 단계를 완료한 뒤, 에이전트는 자기 검증(self-verification)을 통해 작업의 정확성을 점검할 때 더 잘 동작합니다. 하네스의 훅이 사전 정의된 테스트 스위트를 실행하고, 실패 시 에러 메시지를 담아 모델로 다시 루프를 돌릴 수도 있고, 모델이 스스로 자기 코드를 평가하도록 프롬프트를 설계할 수도 있습니다. 검증은 해결책을 테스트에 뿌리내리게 하고, 자기 개선을 위한 피드백 신호를 만들어냅니다.

오늘날 Claude Code나 Codex와 같은 에이전트 제품들은 모델과 하네스가 루프 안에 포함된 상태로 사후 학습(Post-trained)됩니다. 이를 통해 모델은 하네스 설계자가 의도한 동작(파일 시스템 조작, Bash 실행, 계획 수립, 하위 에이전트 병렬화 등)을 기본적으로 더 잘 수행하게 됩니다.

이 과정에서 유용한 프리미티브가 발견되어 하네스에 추가되고, 이는 다시 다음 세대 모델 학습에 사용되는 피드백 루프가 형성됩니다. 이 사이클이 반복되면서, 모델은 자기가 학습된 하네스 안에서 점점 더 유능해집니다.

하지만 이 공진화(co-evolution)는 일반화 측면에서 흥미로운 부작용을 낳습니다. 도구 로직을 바꾸면 모델 성능이 떨어지는 현상 같은 것들이죠. 좋은 예가 Codex-5.3 프롬프팅 가이드에 나오는, 파일 편집용 apply_patch 도구 로직에 관한 내용입니다. 진정으로 지능적인 모델이라면 패치 방식을 바꾸는 정도로 문제를 겪을 리 없지만, 하네스를 루프에 넣은 학습은 이런 식의 과적합을 만듭니다.

그렇다고 해서 모델이 사후 학습될 때 사용된 하네스가 반드시 여러분의 작업에 최적인 것은 아닙니다. Terminal Bench 2.0 리더보드가 좋은 예입니다. Claude Code 안에서의 Opus 4.6은 다른 하네스에서의 Opus 4.6보다 한참 낮은 점수를 받습니다. 이전 글에서 저희는 코딩 에이전트의 Terminal Bench 2.0 순위를 하네스만 바꿔 Top 30에서 Top 5로 끌어올린 과정을 공유한 적이 있습니다. 여러분의 작업에 맞게 하네스를 최적화하는 일에는 아직 짜낼 수 있는 즙이 많이 남아 있습니다.

모델이 더 유능해질수록, 지금 하네스에 있는 일부 기능은 모델 안으로 흡수될 것입니다. 모델은 기본적으로 계획 수립, 자기 검증, 장기 일관성 유지 등을 더 잘하게 될 것이고, 결과적으로 컨텍스트 주입과 같은 필요성은 줄어들 것입니다.

이는 시간이 흐를수록 하네스의 중요성이 낮아질 것임을 시사합니다. 하지만 프롬프트 엔지니어링이 지금도 여전히 가치 있는 것처럼, 하네스 엔지니어링도 좋은 에이전트를 만드는 데 계속 유용할 가능성이 큽니다.

하네스는 모델의 부족한 점을 보완하기도 하지만, 무엇보다 모델의 지능을 중심으로 시스템을 설계하여 효율성을 극대화하기 때문입니다. 잘 구성된 환경, 적절한 도구, 영구적인 상태, 그리고 검증 루프는 모델의 기초 지능 수준과 상관없이 더 효율적인 에이전트를 만듭니다.

하네스 엔지니어링은 저희가 LangChain에서 하네스 구축 라이브러리 deepagents를 개선하며 계속 연구하고 있는 매우 활발한 영역입니다. 아래는 저희가 현재 탐색하고 있는 문제들입니다.

이 글은 하네스가 무엇인지 정의하고, 우리가 모델에게 원하는 작업에 따라 하네스가 어떻게 형성되는지 고찰해 보는 과정이었습니다. 모델은 지능을 품고, 하네스는 그 지능을 유용하게 만드는 시스템입니다. 더 나은 하네스, 더 나은 시스템, 더 나은 에이전트를 향해.

<원문>

©️요즘IT의 모든 콘텐츠는 저작권법의 보호를 받는 바, 무단 전재와 복사, 배포 등을 금합니다.

뇌과학 / 헬스케어
25
bioRxiv Neuro

A multimodal dataset of EEG, eye-tracking, and physiological signals during naturalistic smartphone interactions

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

26
bioRxiv Neuro

Using atorvastatin-induced vascular weakness to model brain haemorrhage in vascularised cerebral organoids

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

27
bioRxiv Neuro

Spatial, temporal and sex specific mitochondrial dynamic changes in severe controlled cortical impact mouse model of traumatic brain injury

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

28
bioRxiv Neuro

Structure-guided, physics-aware reconstruction expands scan-limited multiphoton imaging

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

29
bioRxiv Neuro

Lightning Pose 3D: an uncertainty-aware framework for data-efficient multi-view animal pose estimation

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

30
bioRxiv Neuro

Identity-state expression and switching in co-conscious dissociative identity disorder: a non-traumatic proof-of-concept fMRI study

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

31
Nature Neuro

BOLD fMRI reflects both vascular and metabolic signals

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

32
Nature Neuro

Early dopamine disruption in the entorhinal cortex of a knock-in model of Alzheimer’s disease

2026-04-23

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

33
Nature Neuro

Genomic approaches for understanding the evolution of the human brain

2026-04-21

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

34
Nature Neuro

Constituent-constrained word prediction during language comprehension

2026-04-21

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

35
Nature Neuro

Spatial and single-cell characterization of human glioblastoma tumor microenvironment reveals malignant cellular communities

2026-04-16

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

36
Nature Neuro

Spatial, temporal and Notch determination of terminal selector expression controls neuronal cell fate in the <i>Drosophila</i> optic lobe

2026-04-16

본문을 가져올 수 없습니다. 원문 링크를 확인하세요.

37
Neuroscience News

Freeze-Dried Platelets Combat TBI Brain Swelling and Bleeding

Thu, 23 Apr 2026

Summary: Researchers have identified a potential breakthrough for traumatic brain injuries (TBI) using a freeze-dried blood product called “Thrombosomes.” Originally designed for battlefield hemorrhage, this product has demonstrated a unique ability to stabilize damaged blood vessels in the brain, reducing both immediate bleeding and the dangerous brain swelling (edema) that typically follows days later.

The study suggests that these shelf-stable platelets outperform fresh platelets in protecting the “leaky” vessels associated with TBI, providing a much-needed tool for ambulances and remote clinics.

Key Facts

Five-Year Shelf Life: Unlike fresh platelets, which expire after only seven days and require refrigeration, Thrombosomes are freeze-dried with a sugar called trehalose and can be stored at room temperature for up to five years.

Stabilizing the “Leak”: The product contains high levels of a specific protein that activates receptors on blood vessel cells, reinforcing them against the “leakiness” that causes life-threatening cerebral edema.

Superior to Fresh Platelets: While fresh platelets are used for clotting, they haven’t been effective against TBI. Thrombosomes appear to concentrate potent “factors” that go beyond simple clotting to actively reduce brain inflammation.

Fast-Track Potential: Because Thrombosomes are already in Phase II clinical trials for bleeding disorders, their safety in humans is established, which could significantly accelerate testing for TBI patients.

Source: UCSF

A freeze-dried blood product that could be stored for years on ambulances or in remote emergency departments is showing promise at treating traumatic brain injuries.

The news comes from a mouse study done by researchers at UC San Francisco. If it pans out in people, it could answer a huge unmet need for therapies that treat these injuries, which are the leading cause of death in people under 44 years old.

In addition to the immediate bleeding, traumatic brain injury (TBI) also causes dangerous brain swelling days later, as blood vessels begin to leak. Even if a person is rushed to the hospital, doctors have few options, aside from surgery, to stop the bleeding or the brain swelling.

“In some cases, surgeons will remove part of the skull to relieve the pressure — but there’s no drug that effectively treats swelling, or cerebral edema, directly,” said Shibani Pati, MD, PhD, director of the UCSF Center for Research Transfusion Medicine and Cell Therapies and senior author of the paper, which published March 17 in Blood. “We were excited to see how readily this product reinforced damaged blood vessels in the brain.”

The product, called “Thrombosomes,” was originally developed to control bleeding in battlefield settings. It is derived from platelets that have been freeze-dried with a sugar called trehalose, which helps preserve some of their beneficial contents. It has a shelf life of up to 5 years — far longer than the 7-day shelf life of fresh platelets from human blood donors.

Fresh platelets, which must be stored in refrigerators, are used to treat hemorrhage and some cancer patients and to prevent bleeding during surgery. But they have not been shown to be effective against TBI.

Scientists have only learned how to preserve platelets in the last 30 years, hoping to address an ongoing global shortage of fresh platelets, but no preserved platelet product has been approved for human use, let alone TBI.

The team tested Thrombosomes on the blood vessel cells in petri dishes and in 3D organoid models of blood vessels. The product made both the cell layers and vessels resilient to damage.

Mice that received the product either an hour or a day after a brain injury had less hemorrhage and their blood vessels were not as leaky. They also had less brain inflammation, which can lead to swelling.

The scientists found that the product contained high amounts of a protein that activates a receptor on blood vessel cells, helping to stabilize them. This may explain how the product makes them less leaky.

So far, that protein is the first of what the researchers say could be a cocktail of beneficial molecules.

“Platelets carry many potent factors that go beyond clotting,” Pati said. “In our mouse model of TBI, we saw hints that this product concentrates these factors, making it more effective than platelets themselves.”

The product is in Phase II clinical trials for bleeding disorders, which means it has already been shown to be safe for people. This could hasten trials that test it for TBI.

Authors: Other UCSF authors are Alpa Trivedi, PhD; Byron Miyazawa; Haoqian Zhang, PhD; Longhui Qiu, PhD; Daniel Potter; Austin Edwards; Lindsay Vivona; Maximillian Lin; Callie Keane; Huimin Geng, PhD; Simon J. Cleary, PhD; Alison Nair, MD; and Mark R. Looney, MD. For all authors, see the paper.

Funding: This work was supported by the Department of Defense (W81XWH‐19‐1‐0462 BA180248). For all funding see the paper.

Key Questions Answered:

Q: Why is brain swelling so much more dangerous than a normal bump on the head?

A: Your skull is a fixed, hard container. When the brain swells (cerebral edema), there is nowhere for the tissue to go, which can cut off blood flow and cause permanent damage. Currently, the main “treatment” is a craniectomy, literally removing part of the skull. A drug that stops the swelling directly would be a game-changer.

Q: What makes “freeze-dried” platelets better than the real thing?

A: It’s about concentration and durability. The freeze-drying process preserves and concentrates beneficial molecules that fresh platelets lose quickly. Plus, the ability to keep them in an ambulance for years means treatment can start the moment a paramedic arrives, rather than waiting until the patient reaches a major trauma center.

Q: Could this be used for other injuries, like strokes?

A: While this study focused on TBI, the mechanism—stabilizing leaky blood vessels—is highly relevant to hemorrhagic strokes. If the product can reinforce the “blood-brain barrier” elsewhere, its applications could expand to various forms of acute brain trauma.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this TBI and neurology research news

Author: Levi Gadye Source: UCSF Contact: Levi Gadye – UCSF Image: The image is credited to Neuroscience News

A Dried Platelet-Derived Biologic for Blood-Brain Barrier Repair and Hemorrhage Control Following TBI in Mice

Traumatic Brain Injury (TBI) is the leading cause of death in children and adults aged 18-44. Despite its high prevalence and devastating consequences, there are currently few effective therapies that target the acute, life-threatening complications of TBI – particularly cerebral edema and intracranial hemorrhage (ICH).

The blood-brain barrier (BBB) and regulation of vascular stability following injury are emerging as critical therapeutic targets. In this study, we evaluate the therapeutic potential of a first-in-class, freeze-dried platelet-derived biologic (FDPlts) in a murine model of TBI. FDPlt transfusion significantly reduces post-TBI ICH and restores cerebral vascular perfusion.

Additionally, FDPlts attenuate BBB permeability, suppress intravascular leukocytosis, and mitigate neuroinflammation evidenced by decreased microglial activation, astrocyte reactivity, and macrophage infiltration. Transcriptomic profiling of cortical and hippocampal tissues reveals that FDPlts downregulate gene networks associated with inflammation and fibrosis, suggesting a role for FDPlts in the modulation of post-injury repair.

Mechanistically, FDPlts are enriched in Angiopoietin-1, a key bioactive protein that signals through the Tie2 receptor pathway, a central regulator of endothelial stability. Inhibition of Tie2 exacerbates BBB permeability after TBI, an effect attenuated by FDPlt administration; implicating Ang-1 as a key mediator of FDPlts mediated BBB protection in TBI.

The BBB plays a vital role in maintaining cerebral homeostasis, and its breakdown after TBI initiates harmful cascades of edema, inflammation, and neuronal injury.

Our findings demonstrate, for the first time, that a dried, platelet-derived biologic can promote vascular repair and neuroprotection in TBI.

38
Neuroscience News

Dopamine Depletion: The Hidden Driver of Alzheimer’s Memory Loss

Thu, 23 Apr 2026

Summary: For decades, Alzheimer’s research has focused almost exclusively on toxic proteins like amyloid-beta and tau. However, a new study has identified a new culprit: dopamine dysfunction in the entorhinal cortex.

Researchers discovered that dopamine levels in this critical “memory gateway” drop to less than one-fifth of normal levels in Alzheimer’s models, preventing neurons from encoding new experiences. Most significantly, the study proved that memory could be restored using Levodopa, a common drug already FDA-approved for Parkinson’s disease.

Key Facts

The Dopamine Drop: Dopamine levels in the entorhinal cortex were found to be reduced by over 80%, leaving neurons unable to respond to stimuli or form associative memories.

Restoring Memory: Using both light-based (optogenetic) tools and the drug Levodopa, researchers successfully “rescued” memory function in mice, allowing them to learn and remember again.

Circuit vs. Protein: While current treatments try to clear out protein plaques, this approach focuses on fixing the neuronal circuits that have already become dysfunctional.

Repurposed Potential: Because Levodopa is already widely used for Parkinson’s, this discovery opens an immediate path for clinical trials to see if it can slow or reverse early memory loss in human Alzheimer’s patients.

Source: UC Irvine

Why do memories fade in Alzheimer’s disease – and can they be restored?

University of California, Irvine researchers have uncovered a key mechanism underlying memory loss, showing for the first time that dopamine dysfunction in the entorhinal cortex, a critical memory-related brain region, contributes directly to impaired memory formation.

The study, published today in Nature Neuroscience, identifies a previously unrecognized role for dopamine in Alzheimer’s-related cognitive decline and points to potential therapeutic strategies using existing drugs such as Levodopa.

Memory allows us to connect experiences – linking a smell to a place or a sound to an event. While research has established that memory formation depends on the medial temporal lobe, often referred to as the brain’s “memory center,” the precise neural mechanisms that break down in Alzheimer’s disease have remained unclear.

Researchers led by Kei Igarashi, Chancellor’s Fellow and associate professor of anatomy and neurobiology at the UC Irvine School of Medicine, focused on the entorhinal cortex, a key gateway to the hippocampus that plays a central role in memory.

In earlier published work, the team discovered that dopamine is essential for memory formation in this region. In the present study, they investigated whether disruption of this dopamine system contributes to memory impairment in Alzheimer’s disease.

Using a mouse model of Alzheimer’s disease, the researchers found that dopamine levels in the entorhinal cortex were reduced to less than one-fifth of normal levels, and neurons no longer responded appropriately to stimuli that should be learned.

To determine whether restoring dopamine could rescue memory function, the team increased dopamine levels in the entorhinal cortex using optogenetic techniques. This intervention restored the mice’s ability to form memories. Importantly, administration of Levodopa – a drug widely used to treat Parkinson’s disease – also normalized neural activity and improved memory performance.

“We did not initially expect dopamine to be affected in Alzheimer’s disease,” Igarashi said. “However, as the evidence accumulated, it became clear that dopamine dysfunction plays a central role in memory impairment.”

Alzheimer’s disease affects tens of millions of people worldwide, and effective treatments remain limited. Current approaches have largely focused on removing toxic proteins such as amyloid-beta and tau from the brain, but these strategies often fail to restore memory once neuronal dysfunction has occurred.

This discovery provides an important new piece in understanding how memory circuits break down in Alzheimer’s disease and lays the groundwork for developing dopamine-based therapies. As associative memory declines early in the disease, targeting its underlying neural mechanisms may offer a promising path toward slowing cognitive decline.

The research team also included Tatsuki Nakagawa, Jiayun L. Xie, Kiwon Park, Kai Cao, Marjan Savadkohighodjanaki, Yutian J. Zhang, Heechul Jun, Ayana Ichii, Jason Y. Lee, Shogo Soma, Yasmeen K. Medhat, at UC Irvine Department of Anatomy & Neurobiology; and Takaomi C. Saido, RIKEN Center for Brain Science, Japan.

Funding: This work was supported by NIH R01 grants from the National Institutes of Health (R01MH121736, R01AG063864, R01AG066806, R01AG086441, R01MH137156, RF1AG091584), a BrightFocus Foundation Research Grant (A2019380S), an Alzheimer’s Association Research Grant (AARG-17-532932), a Brain Research Foundation Grant (BRFSG-2017-04), a New Vision Research Award (CCAD201902), and a PRESTO grant from the Japan Science and Technology Agency (JPMJPR2481) to K.M.I. T.N. was supported by an Alzheimer’s Association Research Fellowship (AARF-22-923955) and a BrightFocus Foundation Fellowship Grant (A2022018F).

Key Questions Answered:

Q: I thought dopamine was just about “pleasure.” What does it have to do with memory?

A: While dopamine is famous for reward, it also acts as a “save button” in the brain’s memory centers. Without enough dopamine in the entorhinal cortex, your brain can’t “stamp” a new experience into your long-term memory, which is why events seem to vanish in Alzheimer’s.

Q: Could Parkinson’s medication be the “missing link” for Alzheimer’s?

A: It’s a very promising possibility. This study showed that Levodopa normalized neural activity and improved memory performance. Since the drug is already safety-tested and available, it could theoretically be fast-tracked for Alzheimer’s research.

Q: Does this mean amyloid and tau don’t matter?

A: They still matter, but they might be the “arsonists” that started the fire. Even after you put out the fire (remove the proteins), the “house” (the dopamine circuit) is still damaged. This research suggests we need to repair the circuits to actually get the memory back.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this Alzheimer’s disease research news

Author: Carly Murphy Source: UC Irvine Contact: Carly Murphy – UC Irvine Image: The image is credited to Neuroscience News

Original Research: Open access. “Early dopamine disruption in the entorhinal cortex of a knock-in model of Alzheimer’s disease” by Tatsuki Nakagawa, Jiayun L. Xie, Kiwon Park, Kai Cao, Marjan Savadkohighodjanaki, Yutian J. Zhang, Heechul Jun, Ayana Ichii, Jason Y. Lee, Shogo Soma, Yasmeen K. Medhat, Takaomi C. Saido & Kei M. Igarashi. Nature Neuroscience DOI:10.1038/s41593-026-02260-w

Abstract

Early dopamine disruption in the entorhinal cortex of a knock-in model of Alzheimer’s disease

The entorhinal cortex is a critical brain area for memory formation, while also the region exhibiting the earliest histological and functional alterations in Alzheimer’s disease (AD).

The entorhinal cortex therefore has been long hypothesized as one of the originating brain areas of AD pathophysiology, although circuit mechanisms causing its selective vulnerability remain poorly understood.

Here we show that dopamine neurons projecting their axons to the lateral entorhinal cortex (LEC), critical for memory formation in healthy brains, become dysfunctional from the early pathological stage and cause associative memory impairments in amyloid precursor protein knock-in mice.

Dopamine dysfunction led to the disruption of associative memory encoding of LEC layer 2/3. Optogenetic reactivation of LEC dopamine fibers rescued associative learning behavior. L-DOPA treatment restored memory encoding of LEC neurons and associative memory of amyloid precursor protein knock-in mice.

These results suggest early dysfunction of LEC-projecting dopamine neurons underlie memory impairment in AD from early stages, pointing to a need for clinical investigation of LEC dopamine in patients with AD.

39
Neuroscience News

3D Bio-Hybrid Device Merges Neurons and Computing

Thu, 23 Apr 2026

Summary: Researchers have bridged the gap between biology and silicon by creating a 3D programmable device that merges living brain cells with advanced electronics. Unlike previous “brain-on-a-chip” attempts that grew cells on flat surfaces, this device uses a flexible, microscopic metal mesh as a scaffold, allowing tens of thousands of neurons to grow around and through the sensors.

The study demonstrates that this “biological neural network” can be trained to recognize complex electrical patterns, offering a high-efficiency alternative to power-hungry AI.

Key Facts

From the Inside Out: The device uses a 3D mesh of microscopic wires and electrodes supported by a flexible epoxy coating, allowing it to interface directly with the soft tissue of living neurons.

Long-Term Stability: The team successfully tracked and stimulated the network for over six months, observing how connections between neurons evolved and strengthened over time.

Pattern Recognition: By training an algorithm to interpret the neurons’ activity, the system correctly distinguished between different spatial and temporal patterns of electrical pulses.

Energy Efficiency: While modern AI consumes massive amounts of power, the human brain performs similar computations using roughly one-millionth of the energy, a gap this bio-hybrid technology aims to close.

Source: Princeton University

Princeton researchers have combined brain cells and advanced electronics into a single 3D device that can be programmed to recognize patterns using computational techniques.

Past attempts at using brain cells to do computation have relied on 2D cultures grown in a petri dish or 3D clusters that are probed and monitored from outside. The Princeton device takes a different approach, working from the inside out.

Using advanced fabrication techniques, the team created a 3D mesh made of microscopic metal wires and electrodes supported by a thin epoxy coating. Because the coating is so thin, it has just the right amount of flexibility to interface with the soft neurons that grow around it. The team used the mesh as a scaffold to culture tens of thousands of neurons into a vast 3D network that can be used to do computation.

The study was published in Nature Electronics on Apr. 23.

The researchers said the new integrated approach enabled them to record and stimulate the neurons’ electrical activity at a much finer scale than past approaches. They tracked the evolution of the system over a period of more than six months, experimenting with ways to strengthen and weaken connections between key neurons, and ultimately trained an algorithm that could recognize patterns of electrical pulses.

In one test, they used pairs of distinct spatial patterns. In another, they used distinct temporal patterns. The system correctly distinguished among the patterns in both tests. The researchers said they hope to scale the system to the point where it can do increasingly complex tasks.

The work was led jointly by Tian-Ming Fu, assistant professor of Electrical and Computer Engineering and Omenn-Darling Bioengineering Institute; James Sturm, Stephen R. Forrest Professor of Electrical and Computer Engineering; and Kumar Mritunjay, a postdoctoral researcher in electrical and computer engineering.

While initially developed to study fundamental problems in neuroscience, the team realized it could shed light on a key bottleneck of modern AI technology: energy consumption.

“The real bottleneck for AI in the near future is energy,” said Fu. “Our brain consumes only a tiny fraction — about one millionth — of the power consumed by today’s AI systems to perform similar tasks.”

Mritunjay, the paper’s first author, said that systems like this, called 3D biological neural networks, “not only help uncover the computing secrets of the brain but can also assist in understanding and possibly treating neurological diseases.”

Key Questions Answered:

Q: Is this a “living computer”?

A: In a sense, yes. It is a biological neural network (3D-BNN). By using living neurons as the “processors” and a metal mesh as the “wiring,” the researchers have created a hybrid system that can be programmed to perform specific tasks, like recognizing patterns.

Q: How do you “train” a bunch of brain cells in a mesh?

A: The researchers used electrical stimulation to strengthen or weaken the connections between specific neurons, a process called synaptic plasticity. They then used an algorithm to “read” the resulting electrical signals, much like how a computer reads data from a hard drive.

Q: Could this technology be used to treat brain diseases?

A: That is the long-term goal. Because the mesh is flexible and mimics the brain’s natural structure, it could eventually lead to sophisticated implants that “talk” to the brain in its own language, potentially bypassing damaged areas in patients with neurological disorders.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this neurotech research news

Author: Scott Lyon Source: Princeton University Contact: Scott Lyon – Princeton University Image: The image is credited to Neuroscience News

A three-dimensional micro-instrumented neural network device

Three-dimensional (3D) cultured neural networks that emulate the structures and computational principles of the brain could be of use in the development of brain-inspired computing and artificial intelligence, as well as in the understanding of neural development and disease progression.

However, creating such stable device–neural network interfaces remains challenging, limiting the potential of such 3D neural networks. Here we report a 3D micro-instrumented neural network device in which a 3D flexible electronic sensor and stimulator array is integrated with a 3D cultured neural network.

Our device can be used to record action potentials from multiple planes over a period of 6 months, allowing the quantitative monitoring of the evolving connectivity maps and the pharmacological stimulation responses of the neural networks.

This approach also supports chronic electrical stimulation, which we use to train neural networks by tuning the connectivity strengths between neurons, creating a reservoir neural network for biocomputing.

40
Neuroscience News

How Down Syndrome Reshapes the Developing Brain

Thu, 23 Apr 2026

Summary: Researchers produced the first cellular-resolution molecular map of human brain development in Down syndrome during the critical prenatal window. The study analyzed over 100,000 nuclei to resolve long-standing contradictions caused by inconsistent mouse models.

The findings reveal that Down syndrome disrupts the “tightly orchestrated sequence” of brain building: rather than cells simply dying off, the brain’s stem cells rush prematurely into neuron production. This depletion of the “progenitor pool” explains why individuals with Down syndrome often have smaller brain volumes and distinct cognitive profiles.

Key Facts

The “Rush” to Differentiate: In typical development, progenitor (stem) cells divide to build a large pool before becoming neurons. In Down syndrome, these cells rush into differentiation too early, leading to an undersized “foundation” for the brain.

The Neuron Skew: This premature shift creates a specific imbalance: an increase in upper-layer (IT) neurons (which connect the two brain hemispheres) and a reduction in deep-layer (CT) neurons (which connect the brain to the spinal cord for sensation and movement).

Systems-Level Insights: Using multi-omics, researchers found that the disorder also alters cell metabolism and the way blood vessels (vasculature) interact with the nervous system, both of which likely accelerate the abnormal neuron production.

Cross-Disorder Links: The molecular disruptions identified in Down syndrome overlap significantly with genetic risk factors for autism, epilepsy, and developmental delays, suggesting Down syndrome could serve as a “master model” for understanding neuropsychiatric conditions.

Source: UCLA

Scientists at UCLA have created one of the first cellular-resolution molecular maps detailing how Down syndrome alters human brain development before birth — a resource that resolves longstanding contradictions in the field and could lay the groundwork for future therapeutic strategies.

The study, published in Science, analyzed more than 100,000 nuclei from human prenatal neocortex samples collected across 26 pre-genotyped donors during gestational weeks 13 to 23 — the only window during which all the cortical neurons a person will carry for their entire life are generated.

The findings suggest that Down syndrome disrupts the developmental sequence of that process, creating shifts that may help explain later differences in cognition, learning and sensory processing.

“There’s a new level of detail here that had never existed before,” said Luis de la Torre-Ubieta, senior author of the study and a member of the Eli and Edythe Broad Center of Regenerative Medicine and Stem Cell Research at UCLA. “For the first time, we can really try to understand systematically what’s going on in the developing brain of individuals with Down syndrome.”

Filling a critical gap

The Down syndrome research field has historically focused on two areas: the adult brain and the disorder’s connection to neurodegeneration. The link is striking — the vast majority of people with Down syndrome will develop Alzheimer’s disease, typically by their 60s.

What remained largely unexamined, despite clear indicators that Down syndrome is a developmental condition — such as smaller brain volumes detectable by MRI and cognitive differences apparent as early as 6 months to one year of age — was how the condition shapes the developing brain itself.

“No one had looked at the developing human brain in Down syndrome directly using single-cell genomics,” said de la Torre-Ubieta, an assistant professor of psychiatry and biobehavioral sciences. “Mouse models and in vitro models are important tools, but don’t really give you a gold standard of what’s happening in the human brain — and actually, they have led to different results and some confusion in the field.”

These inconsistencies are due in part to differences in how mice and human brains develop, and the fact that in vitro models don’t fully represent all the cell types and tissues present in the brain.

The new study, de la Torre-Ubieta said, can serve as that gold standard resource.

A disrupted developmental sequence and its impact on brain size

The development of the prenatal neocortex typically follows a tightly orchestrated sequence. Progenitor cells — the brain’s stem cells — must first divide repeatedly to expand their own pool, building up a sufficient base for all future neurons. Only then do they begin differentiating into neurons, starting with deep-layer cell types and progressing toward upper-layer cells in a carefully timed order.

In Down syndrome, that sequence appears to break down. The study found that progenitor cells appear to rush prematurely into neuron production, depleting their own pool and skewing the balance of neuron types generated. Specifically, the researchers observed a relative increase in upper-layer intratelencephalic neurons and a reduction in deep-layer corticothalamic neurons.

Those two cell populations play fundamentally different roles: CT neurons project outward from the cortex — connecting to brain structures and to the spinal cord to govern sensation and movement; IT neurons wire within the cortex, connecting the two hemispheres and contributing to information processing. This finding offers a new hypothesis for how early developmental changes might contribute to the cognitive profile of the condition.

The finding also offers a new answer to a longstanding question in the field: Why do people with Down syndrome tend to have smaller brains? Earlier theories centered on elevated rates of cell death. The current study found less evidence of widespread neuronal death and instead points to the depletion of the progenitor pool.

A systems-level view of a systems-level disorder

The study employed paired single-nucleus multi-omics, a technology that measures both gene expression and chromatin accessibility in the same individual cell. Chromatin accessibility reveals which regions of the genome are open and active — the enhancers and promoters that regulate gene expression — offering a layer of information beyond which genes are simply switched on or off.

By combining these two readouts, the researchers were able to reconstruct not just a snapshot of which cells are present, but the regulatory programs that guide cell fate — and how those programs are disrupted in Down syndrome. Systems-level approaches also led them to uncover alterations in cell metabolism and changes in how the vasculature interacts with the developing nervous system, both of which could speed up neuron production.

Implications beyond Down syndrome

The study’s significance extends beyond Down syndrome. The researchers specifically tested for overlap between the molecular disruptions they identified and the genetic risk signatures associated with other neurodevelopmental and neuropsychiatric conditions, including autism, epilepsy and developmental delay. They found substantial convergence, particularly in the gene-regulatory networks governing the specification of IT versus CT neurons.

“Down syndrome could be a model to understand intellectual disability and neuropsychiatric disorders more broadly,” de la Torre-Ubieta said. “Also to uncover the shared biology underlying these conditions — because the mechanisms are often still unknown.”

Two papers, one story

The publication coincides with a companion paper from researchers at the University of Wisconsin-Madison, appearing in the same issue of Science. While the UCLA study focuses on the prenatal period, the Wisconsin team examined the postnatal brain, studying Down syndrome between approximately one and five years of age.

When the two groups shared preliminary findings, they discovered striking parallels: many of the changes identified prenatally by the UCLA team appear to persist into early childhood.

Together, the two papers provide a continuous molecular view of Down syndrome brain development from mid-gestation through infancy — a resource that did not previously exist and that the researchers expect will serve as a reference for their field for years to come.

A foundation for future therapies

While the researchers are careful to emphasize that the findings do not point to a near-term clinical application, the study provides the clearest picture yet of the cellular and molecular events that distinguish the Down syndrome brain during development, and a framework for identifying future therapeutic targets.

“We are finding targets that could be actionable down the line if you generate drugs for specific pathways,” de la Torre-Ubieta said. “And you could conceive of a gene therapy based on that, to suppress the expression of particular drivers and restore development closer to its normal course.”

UCLA authors Celine K. Vuong and Alexis Weber led this work, along with Patrick Seong, Yu-Jen Chen, Jordan Peyer, Shahab Younesi, Angelo Salinda, Daniel Gomez, Gabriella Rivas, Abril Morales, Beck Shafie, Pan Zhang, Susanne Nichterwitz, Le Qi, Nolan T. Fernandez, Emily Friedman, Daniel H. Geschwind and William E. Lowry. Nana Matoba, Michael I. Love, Michael J. Gandal and Jason L. Stein contributed to this study.

Funding: The research was supported by the National Institute of Child Health and Human Development, the National Institute of Mental Health, the UCLA Broad Stem Cell Research Center, including a Rose Hills Foundation Innovator Grant and a post-doctoral training grant, the UCLA Health Jonsson Comprehensive Cancer Center and UCLA Broad Stem Cell Research Center Ablon Scholars Program, the California Institute for Regenerative Medicine and the National Institutes of Health Biomedical Big Data Training Program.

Key Questions Answered:

Q: Why does this study matter more than previous research using lab mice?

A: Mouse brains develop very differently from human brains, which has led to “scientific noise” and confusion. This study used actual human prenatal samples during the exact 10-week window (gestational weeks 13–23) when every cortical neuron a human will ever have is created. It is now considered the “gold standard” reference for the field.

Q: Does this explain why people with Down syndrome are at higher risk for Alzheimer’s?

A: While this study focused on early development, it provides the “starting line” data. By understanding how the brain is built differently from the beginning, scientists can better understand why those same neural networks are more vulnerable to neurodegeneration and Alzheimer’s later in life.

Q: Could this lead to a “cure” or prenatal treatment?

A: The researchers are cautious but optimistic. By identifying the specific “drivers” that cause stem cells to rush into neuron production, they have identified potential targets for future gene therapies or drugs that could help restore the developmental sequence to a more normal course.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this neurodevelopment and Down syndrome research news

Author: Ani Vahradyan Source: UCLA Contact: Ani Vahradyan – UCLA Image: The image is credited to de la Torre-Ubieta Lab

Original Research: Closed access. “A single-cell multiomic analysis identifies molecular and gene-regulatory mechanisms dysregulated in developing Down syndrome neocortex” by Celine K. Vuong, Alexis Weber, Patrick Seong, Nana Matoba, Yu-Jen Chen, Jordan Peyer, Shahab Younesi, Angelo Salinda, Daniel Gomez, Gabriella Rivas, Abril Morales, Beck Shafie, Pan Zhang, Susanne Nichterwitz, Le Qi, Nolan T. Fernandez, Emily Friedman, Michael I. Love, Michael J. Gandal, Daniel H. Geschwind, William E. Lowry, Jason L. Stein, and Luis de la Torre-Ubieta. Science DOI:10.1126/science.aea1259

Abstract

A single-cell multiomic analysis identifies molecular and gene-regulatory mechanisms dysregulated in developing Down syndrome neocortex

INTRODUCTION

Down syndrome (DS), caused by triplication of human chromosome 21 (Ts21), is the most common genetic cause of intellectual disability. Individuals with DS show deficits in learning, memory, and attention; delayed language and motor development; and atypical sensory processing.

The early emergence of structural abnormalities in the neocortex and of cognitive defects suggests that corticogenesis is disrupted in DS. Yet the molecular and cellular mechanisms leading to changes in the developing DS brain remain to be elucidated.

RATIONALE

Precise temporal and molecular processes driving cell type–specific gene expression programs govern the development of the human brain, a process not yet completely captured by either in vitro or animal models of DS. To address this, we leveraged single-nucleus multiomics (gene expression plus chromatin accessibility) in developing control (Ctrl) and Ts21 neocortex during the period of peak neurogenesis to characterize the cellular and molecular processes and the gene-regulatory mechanisms underpinning DS.

RESULTS

We profiled neocortex from a cohort of 26 Ctrl and Ts21 donors from gestation weeks (GW) 13 to 23 using paired single-nucleus multiomics to capture gene expression and regions of open chromatin across 113,000 nuclei. We uncovered altered cell composition in the Ts21 neocortex, including a reduction in progenitors and misspecification of excitatory neurons.

The neurogenic timeline was accelerated in Ts21, with increased commitment of newborn neurons to the upper layer intratelencephalic (IT) neuron fate at the expense of deep layer corticothalamic (CT) neurons. We then systematically assessed gene expression and coexpression networks altered in Ts21 to identify molecular pathways underlying these cellular changes.

This revealed widespread gene dysregulation encompassing proliferative and metabolic pathways involved in maintaining the progenitor pool, as well as aberrant expression of pro-IT gene programs in newborn and deep layer neurons.

Altered cell composition, timing of neurogenesis, and molecular programs were recapitulated by using primary human neural progenitor cells derived from Ctrl and Ts21 donors. We used gene expression to examine intercellular interactions, finding proneurogenic changes in the neurovascular niche and early evidence of microglial activation.

We then combined paired gene expression and chromatin accessibility to identify gene-regulatory networks and the transcription factors controlling gene programs altered in Ts21. Among these we identified a human chromosome 21 (HSA21)–encoded TF, BACH1, as an activator of pro-IT programs.

We leveraged new knowledge of these gene expression and regulatory changes to understand the molecular mechanisms shared between DS and other neurodevelopmental and psychiatric disorders with cognitive impairment, identifying deep layer neurons and specification programs as a point of shared vulnerability.

CONCLUSION

Our study reveals the neurodevelopmental changes occurring in the Ts21 neocortex and defines the gene-regulatory mechanisms driving them. Our findings offer new insight into the earliest steps leading to DS and provide a foundation for future therapeutic targets.

41
Neuroscience News

Emotional Touch Leaves a Permanent Mark on the Mind

Thu, 23 Apr 2026

Summary: Why does the memory of a comforting hug last a lifetime while the sensation of a handshake vanishes instantly? A new paper introduces the first comprehensive neurobiological model of affective tactile memory.

The research argues that emotionally meaningful touch is stored through a specialized interplay between sensory signals and emotional brain networks. This “embodied memory” doesn’t just store an image of the event, it actually reactivates the bodily and emotional states felt during the original touch.

Key Facts

Sensory vs. Affective: The model distinguishes “discriminative touch” (identifying a texture) from “affective touch” (a gentle caress), which engages neural pathways linked to reward, emotion, and bodily regulation.

Embodied Recall: Unlike visual memories, recalling a meaningful touch may partially recreate the physical sensation in the body, making these memories uniquely powerful and persistent.

The Caregiving Blueprint: Early tactile experiences, such as a parent’s touch, shape the brain’s memory systems, influencing how safe an individual feels and how they form social bonds throughout their life.

Clinical Significance: This framework offers new insights into mental health conditions where touch processing or emotional memory is altered, such as attachment disorders or PTSD.

Source: Queen Mary University of London

Why does a comforting touch stay with us for years, while other sensations quickly fade from our minds?

A new paper offers a novel answer, proposing the first comprehensive neurobiological model of affective tactile memory: the way emotionally meaningful touch is encoded, stored, and recalled.

The article, by Dr Laura Crucianelli, Lecturer in Psychology at Queen Mary University of London, Dr Federica Meconi, Assistant Professor in Neuroscience at the University of Trento, Italy, and Henrik Bischoff, researcher from the Sigmund Freud University, Vienna, Austria, reviews decades of research in neuroscience, psychology and clinical science and puts forward a new concept of affective tactile memory, arguing that emotionally meaningful touch is stored in the brain in powerful and lasting ways.

Dr Crucianelli says: “A comforting touch doesn’t just fade; it may become part of us.

Through an interplay between sensory signals and emotional brain networks, touch experiences can be remembered both consciously and unconsciously, shaping how safe we feel, how we bond with others, and how we navigate relationships across the lifespan.”

Ther esearch opens a new window into how early and everyday tactile experiences quietly influence our emotional lives.

Memories of affective touch are emotional as well as tactile

While touch has long been studied as a basic sensory system, this paper shifts the focus to its emotional and memory-related functions. The authors bring together evidence from neuroscience, psychology, and physiology to show that touch is not just perceived in the moment, but it is deeply intertwined with memory systems that shape future behaviour and social interaction.

Crucially, the paper distinguishes affective touch – such as a gentle caress – from purely discriminative touch and argues that these experiences engage specialised neural pathways linked to emotion, reward, and bodily regulation.

“Affective touch has been largely overlooked in memory research. We show that it deserves a central place in how we understand the emotional brain.” says Dr Crucianelli, “It may be that when we remember a meaningful touch, the brain reactivates traces of how that experience felt in the body.”

Memories of touch may be held in the body

One of the most striking ideas is that memories of touch may be fundamentally embodied, relying not only on brain-based representations but also on the reactivation of bodily and emotional states. This suggests that recalling a touch is not like replaying a neutral image; it may partially recreate how that touch felt in the body.

A mother’s touch could shape lifelong wellbeing

By proposing a unified model of how affective touch is remembered, the paper fills a major gap in cognitive psychology and neuroscience. It connects sensory processing, emotion, and memory into a single framework, offering new ways to understand how early tactile experiences, especially in caregiving contexts such as the gentle touch a baby receives from their parents, shape development and wellbeing.

“Even the most subtle forms of touch can leave lasting imprints on how we think, feel, and relate to others” the Authors add, “This work highlights how deeply our relationships are rooted in physical, embodied experience.”

The findings have important implications for mental health, particularly in conditions where touch processing or emotional memory is altered. They also shed light on the role of touch in social bonding, attachment, and resilience, highlighting how deeply human connection is rooted in physical experience.

In a world where digital interaction is increasingly dominant, this research is a timely reminder: skin to skin touch leaves a lasting imprint on the brain and on who we become.

Key Questions Answered:

Q: Can you actually “feel” a memory of a touch in your body?

A: Yes. The researchers propose that when we recall a meaningful touch, the brain reactivates the original “traces” of how that experience felt physically. It’s less like looking at a photo and more like a physical “echo” of the sensation.

Q: Why are touch memories so much harder to forget than what we see or hear?

A: Because affective touch is processed by brain networks responsible for survival and emotional regulation. These systems are designed to store information that tells us who is safe and who we can trust, making these memories foundational to our identity.

Q: Is “digital touch” (like a vibrating phone) a substitute for real touch?

A: No. The study emphasizes that skin-to-skin contact engages specific neural pathways that digital interactions cannot mimic. The physical, embodied nature of real touch is what creates the lasting imprint on the brain.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this tactile stimulation and emotional memory research news

Memories that touch deeply: Toward a neurobiological model of affective tactile memory

Affective touch has long been recognised as fundamental to bonding, emotional regulation, and social development, yet its role as a distinct form of memory has remained largely unexplored.

This paper advances the concept of affective tactile memory, integrating neurobiological, developmental, and clinical perspectives. We propose a model in which bottom-up processes, partially mediated by C-tactile afferents, may converge with top-down modulation from prefrontal-limbic networks to support the encoding, consolidation, and retrieval of tactile experiences.

These processes may generate both explicit memories, enabling conscious recall of specific episodes, and implicit traces, shaping emotional security, attachment, and interpersonal trust across the lifespan.

We outline hypotheses on implicit memory formation, explicit recall, and the developmental trajectory of tactile memory, and consider moderators such as attachment style, interoceptive awareness, and imagery capacity. Finally, we discuss implications for clinical interventions and caregiving, where fostering or restoring nurturing tactile experiences may enhance resilience and well-being.

Recognising affective touch as a potential distinct memory domain opens novel theoretical and empirical avenues across neuroscience, psychology, and clinical science.

42
Neuroscience News

Stroke Impact Determines Future Dementia Risk

Thu, 23 Apr 2026

The study emphasizes the need to aggressively treat dementia risk factors in all stroke survivors, especially those with severe cases. Credit: Neuroscience News

Summary: A comprehensive national study has confirmed a direct “dose-response” relationship between stroke severity and long-term cognitive decline. Analyzing data from over 42,000 adults over a 30-year period, researchers found that survivors of severe strokes have five times the odds of developing dementia compared to those who have never had a stroke.

The research emphasizes that even minor strokes double the risk, suggesting that any cerebrovascular event significantly erodes the brain’s “cognitive reserve.”

Key Facts

The Multiplier Effect: Compared to people without a stroke, the risk of dementia is roughly 2x higher after a minor stroke, 3x higher after a moderate stroke, and 5x higher after a severe stroke.

Cognitive Aging: Survivors of moderate-to-severe strokes showed cognitive decline equivalent to being 2.6 years older at baseline, effectively “aging” the brain’s processing power instantly.

Loss of Compensation: Increased stroke severity leads to greater structural and network damage, leaving the brain unable to compensate for normal age-related decline or vascular injuries.

Preventative Priorities: Researchers identified blood pressure, glucose, and cholesterol control, along with anticoagulants for atrial fibrillation, as the most critical interventions to prevent the “second stroke” that often triggers rapid decline.

Source: University of Michigan

As stroke severity increases, the risk of progressive cognitive decline and dementia substantially escalates, according to a national study led by Michigan Medicine researchers.

People with the most severe strokes had five times higher odds of developing dementia and showed cognitive decline equivalent to being more than two years older at baseline compared with people who did not have a stroke.

The results are published in JAMA Network Open.

“Stroke severity strongly affects thinking and memory after stroke,” said senior author Deborah A. Levine, M.D., M.P.H., professor of internal medicine and neurology at the University of Michigan Medical School.

“Our findings highlight the need to closely monitor cognition and aggressively treat dementia risk factors in all stroke survivors, especially those with severe strokes.”

The research team analyzed health care data from more than 42,000 American adults — including approximately 1,500 stroke survivors — who were followed for up to 30 years.

Dementia risk increased with stroke severity. Compared with people who did not have a stroke, dementia risk was about twice as high after a minor stroke, three times higher after a moderate stroke and five times higher after a severe stroke.

People without stroke showed some age-related cognitive decline over time. But stroke survivors had faster long-term declines in overall cognition, memory and executive function — and the declines were greater with more severe strokes.

On average, survivors of mild-to-moderate stroke declined as if they were 1.8 years older cognitively at baseline, and survivors of moderate-to-severe stroke declined as if they were 2.6 years older.

“Cognitive impairment is not limited to people with moderate or severe strokes; we also see it after mild strokes, so all survivors are at risk and should be monitored,” said Mellanie V. Springer, M.D., M.S., co-author and Thomas H. and Susan C. Brown Early Career Professor of Neurology at U-M Medical School.

“As stroke severity increases, structural and network damage also increase. This reduces the cognitive reserve and leaves the brain less able to compensate for the stroke itself, normal age-related decline and ongoing injury from vascular risk factors.”

Small vessel disease, neurodegeneration (including Alzheimer’s disease) and chronic inflammation may also contribute to cognitive decline and dementia after stroke.

Researchers say more studies are needed to better understand these mechanisms and to test treatments to prevent poststroke dementia and cognitive decline, including strategies that target blood pressure and glucose control.

Levine’s team previously reported that higher glucose levels after stroke are linked to faster poststroke cognitive decline.

“The best ways to prevent poststroke dementia and cognitive decline are to prevent first and second strokes,” Levine said.

“That means controlling blood pressure, glucose and cholesterol to optimal levels, and taking an anticoagulant when atrial fibrillation is present, as recommended.”

Additional authors: Emily M. Briceño, Ph.D., Bruno J. Giordani, Ph.D., Rodney A. Hayward, M.D., Jeremy Sussman, M.D., Rachael T. Whitney, Ph.D., Wen Ye, Ph.D., all of University of Michigan, Silvia Koton, Ph.D., R.N., of New York University Grossman School of Medicine, Tel Aviv University and Johns Hopkins Bloomberg School of Public Health, Alden L. Gorss, Ph.D., and Hang Wang, Ph.D., both of Johns Hopkins Bloomberg School of Public Health, Hugo J. Aparicio, M.D., and Alexa S. Beiser, Ph.D., of Boston University, Josef Coresh, M.D., Ph.D., of New York University Grossman School of Medicine, Mitchell S.V. Elkind, M.D., of the American Heart Association, Rebecca F. Gottesman, M.D., Ph.D., of the National Institute of Neurological Disorders and Stroke, Virginia J. Howard, Ph.D., and Ronald M. Lazar, Ph.D., both of the University of Alabama at Birmingham, Michelle C. Johansen, M.D., Ph.D., of the Johns Hopkins University School of Medicine, and Robert J. Stanton, M.D. of the University of Cincinnati.

Funding/disclosures: This work was funded by the National Institute on Aging of the National Institutes of Health (RF1AG068410)

Key Questions Answered:

Q: If I had a “mini-stroke” (TIA) or a very minor stroke, am I still at risk?

A: Yes. The study explicitly notes that cognitive impairment is not limited to severe cases. Even minor stroke survivors had twice the odds of developing dementia. The takeaway is that all survivors require long-term cognitive monitoring.

Q: Why does a stroke in one part of the brain cause overall memory loss?

A: A stroke doesn’t just damage one “spot”; it breaks the highways (neural networks) that allow different parts of the brain to talk to each other. This reduced “cognitive reserve” makes the brain much more vulnerable to normal aging and Alzheimer’s-related changes.

Q: Can I stop the cognitive decline after a stroke has already happened?

A: While the stroke causes immediate damage, the speed of future decline can be managed. Aggressively controlling blood sugar and blood pressure post-stroke has been shown to slow down further loss of memory and executive function.

Editorial Notes:

This article was edited by a Neuroscience News editor.

Journal paper reviewed in full.

Additional context added by our staff.

About this neurology research news

Author: Noah Fromson Source: University of Michigan Contact: Noah Fromson – University of Michigan Image: The image is credited to Neuroscience News

Original Research: Open access. “Ischemic Stroke Incidence and Severity and Poststroke Cognitive Decline and Incident Dementia” by Silvia Koton, Alden L. Gross, Hugo J. Aparicio, Alexa S. Beiser, Emily M. Briceño, Josef Coresh, Mitchell S. V. Elkind, Bruno J. Giordani, Rebecca F. Gottesman, Rodney A. Hayward, Virginia J. Howard, Michelle C. Johansen, Ronald M. Lazar, Mellanie V. Springer, Robert J. Stanton, Jeremy Sussman, Hang Wang, Rachael T. Whitney, Wen Ye, and Deborah A. Levine. JAMA Network Open DOI:10.1001/jamanetworkopen.2026.8900

Abstract

Ischemic Stroke Incidence and Severity and Poststroke Cognitive Decline and Incident Dementia

Importance

The association between stroke severity and dementia is well established. However, reports on trajectories of cognitive decline comparing stroke survivors with individuals without stroke in large cohorts are insufficient.

Objectives

To examine associations of ischemic stroke incidence and severity with cognitive decline and dementia risk and to explore whether vascular risk factors modify these associations.

Design, Setting, and Participants

This cohort study pooled longitudinal data on cognitive function of participants aged 45 years or older and without stroke and dementia at baseline from 3 US prospective cohorts: the Atherosclerosis Risk in Communities study (1987-2019), Framingham Offspring Study (1971-2019), and Reasons for Geographic and Racial Differences in Stroke study (2003-2019). First definite ischemic strokes were reported in each cohort using consistent protocols, with severity defined using the National Institutes of Health Stroke Scale (NIHSS). The data analysis was completed February 27, 2026.

Exposure

Incident ischemic stroke categorized as minor (NIHSS 0-5), mild to moderate (NIHSS 6-10), or moderate to severe (NIHSS ≥11).

Main Outcomes and Measures

The primary outcomes were decline in global cognition and incident dementia. Secondary outcomes were changes in memory and executive function. Multivariable linear mixed-effects models were used to test the association of stroke incidence and severity with cognitive decline.

Results

A total of 42 342 participants from the pooled cohorts were included (mean [SD] age, 61.3 [9.8] years; 55.0% female). Longitudinal cognitive testing data were available for a median of 11.1 years (range, 0-29.7 years) with 397 344 person-years of observation for dementia incidence. Stroke severity data were available for 1055 of 1505 first-ever ischemic stroke survivors (70.1%). Compared with participants with no stroke, adjusted hazard ratios for incident dementia were 1.93 (95% CI, 1.52-2.45) for NIHSS 0 to 5, 3.26 (95% CI, 1.93-5.53) for NIHSS 6 to 10, and 5.06 (95% CI, 2.71-9.45) for NIHSS 11 or higher.

Over the follow-up, higher stroke severity was associated with progressively steeper cognitive declines across all domains, with more prevalent dose-response associations for global cognition (ranging from a mean −0.18 [95% CI, −0.19 to −0.18] points per year for no stroke to −0.58 [95% CI, −0.73 to −0.42] points per year for moderate to severe stroke) and memory (ranging from a mean −0.15 [95% CI, −0.16 to −0.14] points per year for no stroke to −0.36 [95% CI, −0.51 to −0.21] points per year for moderate to severe stroke) than for executive function (ranging from a mean −0.33 [95% CI, −0.34 to −0.32] points per year for no stroke to −0.52 [95% CI, −0.66 to −0.39] points per year for moderate to severe stroke).

Conclusions and Relevance

This large cohort study of participants from 3 prospective cohorts found that greater stroke severity was associated with substantially elevated dementia risk and accelerated decline in global cognition, memory, and executive function. These findings underscore the critical importance of stroke prevention, particularly severe stroke, and identifying mechanisms that may link stroke to cognitive decline.