회사는 "명절을 앞두고 협력사의 자금 부담을 완화하고, 소속 구성원들이 풍성한 명절을 맞이할 수 있도록 거래대금을 조기에 지급하기로 했다"며 "어려운 글로벌 경쟁 환경을 함께 극복하고 있는 협력사들에 감사의 뜻을 전하며, 앞으로도 AI 산업의 핵심 파트너로서 동반성장 생태계 구축에 최선을 다하겠다"고 밝혔다. 회사는 이번 조기지급이 단순한 자금 지원을 넘어 협력사들의 조직 안정성과 근무 만족도 향상으로 이어지길 기대했다. 앞서 SK하이닉스는 협력사를 지원하기 위해 2020년부터 거래대금 지급 횟수를 월 3회에서 4회로 늘렸다. 또, 회사는 저금리 동반성장 펀드 약 3,400억 원, 무이자로 협력사간 납품대금을 지원하는 펀드 약 200억 원 등 3,600억 원 규모의 상생 펀드를 운영해 협력사의 안정적인 경영 활동을 지원하고 있다
올해 12월까지 상반기(1~6월) 규모에 버금가는 4000여 명을 채용해 총 8000여 명을 선발한다. 반도체 설계, 소자, R&D, 양산기술 등 SK하이닉스의 AI 반도체 사업 확대에 함께할 역량 있는 인재를 선발, 채용할 계획이다. 올해까지 4개 기수가 배출됐고 올해는 청년들이 선호하는 취업분야인 AI, 반도체에 대한 내용이 중점적으로 다뤄졌다. 이 밖에 SK하이닉스의 반도체 직무 기본교육 '청년 하이포(Hy-Po)', SK텔레콤의 AI 개발 이론 및 실습교육 'FLY AI Challenger', SK AX의 AI 개발자 양성과정 'SKALA(스칼라)' 등 SK그룹은 청년인재의 역량을 강화하는 프로그램에 투자를 이어갈 계획이다
회사는 "새로운 AI 시대를 견인하게 될 HBM4 개발에 성공하고 이 기술적 성과를 기반으로 세계 최초의 HBM4 양산 체제를 구축했다"며, "이를 통해 당사의 AI 메모리 기술 리더십을 글로벌 시장에서 다시 한번 입증했다"고 밝혔다. 개발을 이끈 SK하이닉스 조주환 부사장(HBM개발 담당)은 "HBM4 개발 완료는 업계에 새로운 이정표가 될 것"이라며, "고객이 요구하는 성능, 에너지 효율, 신뢰성을 모두 충족하는 제품을 적시에 공급해 AI 메모리 시장에서의 경쟁 우위를 확보하고 신속한 시장 진입(Time to Market)을 실현할 것"이라고 밝혔다. 새롭게 양산 체제를 갖춘 HBM4는 이전 세대보다 2배 늘어난 2,048개의 데이터 전송 통로(I/O)를 적용해 대역폭을 2배로 확대하고 전력 효율은 40% 이상 끌어올렸다. 이 제품을 고객 시스템에 도입 시 AI 서비스 성능을 최대 69%까지 향상시킬 수 있어, 데이터 병목 현상을 근본적으로 해소하는 동시에 데이터센터 전력 비용도 크게 줄일 것으로 회사는 전망했다.
양사는 전날(9일) 열린 업무협약식에서 기술 협력을 위한 양해각서(MOU)를 체결했고, 회사는 네이버클라우드와 협업해 실제 AI 서비스 환경에서 차세대 AI 메모리, 스토리지 제품에 대한 성능 평가와 최적화를 추진한다. 이로 인해 메모리의 대역폭과 용량에 대한 요구는 물론, 데이터센터에 적용된 메모리 등 하드웨어와 소프트웨어 간 최적화가 AI 서비스의 경쟁력을 좌우하는 핵심 차별화 요소로 대두되고 있다. 네이버클라우드는 검증된 고성능 메모리, 스토리지 설루션을 활용해 AI 서비스의 응답속도 향상, 운영비용 절감 등 실질적 성과를 도출하는 윈-윈(Win-Win) 협력을 추진해 나갈 계획이다. 네이버클라우드 김유원 대표이사 사장은 "AI 서비스 경쟁력은 소프트웨어를 넘어 데이터센터 인프라 전반의 최적화에서 결정된다"며 "글로벌 AI 메모리 대표 반도체 기업과의 협업을 통해 인프라부터 서비스까지 아우르는 경쟁력을 강화하고, 고객에게 보다 혁신적인 AI 경험을 제공하겠다"고 밝혔다.
이날 이천캠퍼스에서 열린 행사에는 ASML코리아 김병찬 사장, SK하이닉스 차선용 부사장(미래기술연구원장, CTO), 이병기 부사장(제조기술 담당) 등이 참석해 차세대 D램 생산 장비 도입을 기념했다. 반도체 제조업체가 생산성과 제품 성능을 높이려면 미세 공정 기술 고도화가 필수다. 회사는 2021년 10나노급 4세대(1anm) D램에 EUV를 첫 도입한 이후 최첨단 D램 제조에 EUV 적용을 지속 확대해 왔다. 하지만 미래 반도체 시장에서 요구될 극한 미세화와 고집적화를 위해서는 기존 EUV 장비를 넘어서는 차세대 기술 장비가 필요하다.
회사는 "온디바이스(On-Device) AI 구현을 위한 데이터 고속 처리 시 발생하는 발열이 스마트폰 성능 저하의 주요 원인이 되고 있다"며, "이번 제품으로 고사양 플래그십(Flagship) 스마트폰의 발열 문제를 해결해 글로벌 고객사들로부터 높은 평가를 받고 있다"고 밝혔다. 최신 플래그십 스마트폰은 모바일 AP(스마트폰, 태블릿 등 모바일 기기에서 두뇌 역할을 하는 반도체 칩) 위에 D램을 적층하는 PoP방식을 적용하고 있다. 하지만 모바일 AP에서 발생한 열이 D램 내부에 누적되면서 전체적인 스마트폰 성능 저하도 함께 야기한다. 향상된 방열 성능은 스마트폰의 성능 개선과 소비전력 절감을 통해 배터리 지속시간, 제품 수명 연장에도 기여한다.
회사는 "세계 최초로 300단 이상 낸드를 QLC 방식으로 구현해 기술적 한계를 다시 한번 돌파했다"며, "현존하는 낸드 제품 중 최고의 집적도를 가진 이 제품으로 글로벌 고객사 인증을 거쳐 내년 상반기부터 AI 데이터센터 시장을 본격 공략하겠다"고 강조했다. 그 결과 이번 제품은 높은 용량과 함께 이전 QLC 제품 대비 크게 향상된 성능을 구현했다. 회사는 우선 PC용 SSD에 321단 낸드를 적용한 후, 데이터센터용 eSSD와 스마트폰용 UFS 제품으로 적용 영역을 확대해 나간다는 전략이다. 더 나아가 낸드 32개를 한번에 적층하는 독자적인 패키지 기술을 바탕으로 기존 대비 2배 높은 집적도를 구현해 AI 서버용 초고용량 eSSD 시장까지 본격 공략할 방침이다
또, 구성원들이 사내 보안망 내에서 안전하게 생성형 AI를 활용하고 업무 특화 서비스를 개발 및 운영하도록 지원하고 있다. 이를 통해 회사는 지난 7월 '비즈(Biz) 특화' 서비스로, ▲장비 보전 에이전트 ▲글로벌 정책·기술 분석 에이전트 ▲HR 제도 에이전트 ▲회의 에이전트 등을 베타 오픈했다. 생성형 AI 로드맵 따라 순차 개발… 에이전트 간 스스로 협업하는 A2A 구현한다. 지난 2023년부터 회사는 ▲네이티브 RAG(자료를 검색하고 답변하는 생성형 AI 답변 방식) + LLM(2023) ▲에이전트 및 작업 도구(2024) ▲에이전틱 AI(2025) ▲에이전트 오케스트레이션(2025) 순서로 AI 서비스를 개발 중이다. 이중 비즈 특화 서비스는 에이전틱 AI 기술이 본격적으로 적용된 서비스로, 회사는 다양한 역할의 에이전트(기획자 에이전트, 개발자 에이전트 등)를 제작하고, 성능을 고도화하는 작업을 거쳤다. 향후 회사는 다양한 에이전트가 협업하는 A2A로 유연하고 단계적인 문제 해결 방식을 도입한다는 계획이다.
성금은 피해지역 복구 등에 쓰이며, 구호 물품은 이재민들의 일상 생활 회복에 지원될 예정이다. 하이세이프티 사업은 SK하이닉스가 재해 발생시 이재민 구호 지원을 목적으로 연 6억원을 출연해 시작한 사업이다. 통신 계열사인 SK텔레콤은 17일부터 이재민 임시 주거시설이 마련된 경상남도 산청군, 충청남도 예산군 등에 스마트폰 충전 부스 및 보조배터리 등 통신 편의 시설을 제공하고, 돗자리, 물티슈 등을 비롯한 구호 물품도 지원 중이다
과학기술정보통신부와 한국산업기술진흥협회가 수여하는 엔지니어상은 산업 현장에서 탁월한 연구개발 성과를 이뤄낸 엔지니어에게 수여되며, 우리나라 기술 경쟁력을 높이는 데 기여한 주역들을 조명하고 있다. 올해로 입사 19년 차를 맞은 손 팀장은 소자 엔지니어로서 다양한 D램 제품의 Peri 트랜지스터 개발을 위해 힘써왔으며, 고성능·저전력·고신뢰성을 요구하는 까다로운 조건 속에서도 고객이 체감할 수 있는 수준의 성능 향상을 위한 기술 리더십을 발휘해 왔다. 특히, LPDDR5 개발 과정에서는 D램에 HKMG 공정을 성공적으로 적용해 업계의 주목을 받기도 했다. 이 기술은 기존 대비 성능과 전력 효율을 동시에 개선할 수 있는 공정으로, SK하이닉스 메모리 제품의 경쟁력을 획기적으로 끌어올리는 데 이바지했다.
Copyright © 2025 eCARDNEWS.com. All right reserved.
Copyright © 2025 eCARDNEWS.com. All right reserved.