2026년 3월 기준, 애플 인텔리전스(Apple Intelligence)는 애플이 아이폰, iOS, iOS 26, iPad, Mac, Apple Vision Pro에 통합한 개인형 AI 시스템이다.[1][2] 애플은 이 기능 묶음을 개별 앱 하나의 기능이 아니라, 사용자가 글을 쓰고 읽고 찾고 표현하는 과정 전반에 들어가는 “apps and experiences” 수준의 지능으로 설명하며, 기능은 플랫폼·언어·지역에 따라 다르게 제공될 수 있다고 밝힌다.[1][2]
1. 개요
애플 인텔리전스는 온디바이스 모델과 클라우드 처리를 함께 쓰는 구조로 설계되었다. 애플의 공식 페이지는 많은 모델이 기기 안에서 직접 실행되고, 더 복잡한 요청에는 Private Cloud Compute를 사용해 사용자의 요청을 처리한다고 설명한다.[1][3] 이런 설계는 일반적인 챗봇 기능보다 더 좁은 범위의 개인 맥락을 활용해, 글쓰기 보조·요약·이미지 생성·Siri 보조처럼 일상 작업에 바로 붙는 기능을 제공하는 데 초점을 둔다.[1][2]
애플은 이 기능들을 현재 베타로 표기하고 있으며, 일부 기능과 언어는 아직도 지역별로 차이가 있다.[1][2] 그래서 애플 인텔리전스를 이해할 때는 “무엇을 할 수 있는가”뿐 아니라 “어떤 기기와 언어에서, 어느 수준까지 제공되는가”를 함께 봐야 한다.[1][2]
2. 지원 기기와 언어
Apple Support는 애플 인텔리전스의 기본 지원 대상을 iPhone 15 Pro 계열과 iPhone 16 이후 모델, iPhone 17과 iPhone Air 같은 최신 세대, iPad mini(A17 Pro), M1 이후 iPad, M1 이후 Mac, Apple Vision Pro로 제시한다.[2] Apple Watch는 단독 기기 조건이 아니라, Apple Intelligence가 켜진 iPhone과 근처에서 연동될 때 일부 기능을 쓸 수 있는 보조 경로로 취급된다.[2]
언어와 지역도 제한적이다. 2026년 기준으로 애플은 iOS 26 계열의 26.1, iPadOS 26.1, macOS 26.1에서 여러 언어를 지원한다고 밝히며, 지원 언어에는 영어, 프랑스어, 독일어, 이탈리아어, 포르투갈어(브라질), 스페인어, 중국어 간체/번체, 일본어, 한국어, 베트남어 등이 포함된다.[2] 또한 유럽연합과 중국 본토는 별도의 배포 조건이 있고, 애플은 기능별·지역별 차이가 계속 생길 수 있다고 경고한다.[2]
3. 주요 기능
애플 인텔리전스의 기능은 크게 글쓰기, 대화, 이미지, 정리, 검색으로 나눠 볼 수 있으며, Siri와 App Store 앱 경험을 함께 바꾼다. 글쓰기 영역에서는 Writing Tools, Smart Reply, Mail과 Messages의 요약, 음성사서함 요약, Notes 전사 요약 같은 기능이 중심이고, 대화 영역에서는 Siri의 맥락 이해, 더 자연스러운 음성, 문자 입력으로 Siri를 쓰는 방식, 그리고 ChatGPT 연동이 핵심이다.[1][2]
이미지와 표현 기능도 비중이 크다. 애플은 Genmoji, Image Playground, Image Wand, Photos의 Clean Up, 메모리 무비 생성, 자연어 사진 검색을 애플 인텔리전스의 대표 기능으로 제시한다.[1][2] 아이폰에서는 Visual Intelligence가 주변 사물이나 화면 내용을 더 잘 이해하도록 돕고, 텍스트 요약, 장소 식별, 포스터를 일정으로 바꾸기, 식물·동물 식별, ChatGPT 질문 같은 동작을 제공한다.[2]
정리와 생산성 기능도 있다. 알림 요약, Priority Messages in Mail, Reminders 자동 분류, Focus의 지능형 제어, Messages의 Poll Suggestions와 배경 생성, Wallet의 주문 추적 강화, Shortcuts의 지능형 동작과 Apple Intelligence 모델 사용 같은 기능은 애플 인텔리전스가 단순한 생성형 AI가 아니라 운영체제 전체의 작업 흐름을 재정렬하는 도구임을 보여 준다.[1][2] 일부 기능은 영어권이나 특정 기기에서만 작동하며, Apple Watch 기능은 주변 iPhone과 Bluetooth 헤드폰 조건이 추가된다.[2]
4. 프라이버시와 Private Cloud Compute
애플은 애플 인텔리전스의 기본 원칙을 프라이버시 중심으로 설명한다. 많은 작업은 온디바이스 모델로 처리되고, 더 큰 모델이 필요한 경우에만 Private Cloud Compute가 쓰이며, 이때도 사용자 데이터는 사용자 외 누구에게도 접근할 수 없도록 설계되어 있다고 Apple Security Research는 밝힌다.[1][3] Apple은 개인 데이터가 요청 처리 외 다른 목적으로 남지 않도록 하고, 응답이 반환되면 데이터가 보존되지 않도록 하는 stateless computation을 핵심 요구사항으로 제시한다.[3]
Private Cloud Compute는 단순한 “클라우드에 올린 AI”가 아니라, Apple silicon 기반 서버와 강화된 운영체제, 서명·격리·감사 가능한 로그, 그리고 연구자가 검증할 수 있는 공개 투명성 로그를 결합한 구조다.[3] 애플은 이 시스템을 통해 Apple 직원조차 생산 중인 사용자 데이터를 볼 수 없도록 하며, 코드와 소프트웨어 이미지를 공개해 외부 검증 가능성까지 확보하려고 한다.[3]
5. 개발자와 앱 통합
애플 인텔리전스는 개발자에게도 열려 있다. Apple은 Foundation Models framework, App Intents, 기타 API와 프레임워크를 통해 앱이 온디바이스 모델을 활용할 수 있고, 이런 기능은 오프라인에서도 작동하며 요청당 추가 비용이 없다고 설명한다.[1] 그래서 애플 인텔리전스는 운영체제 기능이면서 동시에 App Store 앱 기능 확장의 기반 계층이기도 하다.[1]
ChatGPT 연동은 Siri, Writing Tools, Image Playground, Shortcuts, visual intelligence 안에서 제공되며, 해당 통합은 ChatGPT 앱과 서비스가 제공되는 지역에서만 쓸 수 있다.[1][2] 이 점은 애플 인텔리전스가 자체 모델만으로 닫힌 시스템이 아니라, 애플이 통제하는 경험과 외부 모델을 선택적으로 엮는 조정 레이어라는 뜻이다.[1]
6. 제한과 읽는 법
애플 인텔리전스는 기능 범위가 빠르게 바뀌는 시스템이다. 애플은 일부 기능이 아직 개발 중이며, 더 개인적인 Siri 기능은 미래 소프트웨어 업데이트에서 제공될 예정이라고 밝히고, 기능과 언어, 지역 차이도 계속 경고한다.[2] 또한 Apple의 공식 페이지는 애플 인텔리전스를 베타로 표기하므로, 문서를 읽을 때는 “현재 무엇이 가능하냐”와 “어떤 조건에서 가능한가”를 분리해서 보는 편이 안전하다.[1][2]
그래서 이 문서는 제품 홍보 문구보다 현재의 지원 조건과 개인정보 설계를 먼저 읽는 기준 문서로 보는 것이 적절하다.[1][3] 실제 사용 여부를 판단할 때는 최신 지원 페이지와 기기 조건을 다시 확인하고, 특정 기능이 필요한 경우에는 언어와 지역, OS 버전, iPhone 17이나 iPhone Air 같은 기기 세대를 함께 봐야 한다.[2]
8. 인용 및 각주
[1] Apple Intelligence - Apple, Apple, www.apple.com(새 탭에서 열림)
[2] How to get Apple Intelligence - Apple Support, Apple Support, support.apple.com(새 탭에서 열림)
[3] Private Cloud Compute: A new frontier for AI privacy in the cloud - Apple Security Research, Apple Security Research, security.apple.com(새 탭에서 열림)