일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- Hand Pose Detect
- ProRAW
- NSUserActivity
- Mac
- Hand Action Detect
- swiftUI
- DriverKit
- CoreML
- Xcode Cloud
- actor
- METAL
- Physical Audio
- detent
- DooC
- SF Symbols
- WWDC 2021
- App Clip
- concurrency
- Reality Composer
- SF Symbols 3.0
- User Enrollment
- profile
- async
- Object Capture
- AVFoundation
- AR Quick Look
- AppleEvent
- MDM
- SWiFT
- Xcode Organizer
- Today
- Total
목록WWDC (60)
nyancoder
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10268/ Start conditions Xcode의 Report Navigator에 새 클라우드 탭이 추가되었습니다. 팀의 Workflow와 빌드를 확인할 수 있습니다. Pull Request를 받았을 때, 매번 자동으로 동작하는 Workflow를 구성해볼 수 있습니다. 앱을 자동으로 분석, 테스트, 내 앱을 분석, 테스트, 결과를 생성할 수 있습니다. 개발팀에게 결과를 알릴 수 있습니다. 팀 구성원들에게 앱을 전달할 수 있습니다. Product -> Xcode Cloud -> Manage Workflow를 선택해서 새 Workflow를 구성할 수 있습니다. Workflow관리 화면에서 + 버튼을 눌러..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10076/ Object Capture 원하는 물체를 3D 모델로 만들어 내기 위해서 우선 모든 각도에서 대상의 사진을 촬영해야 합니다. 촬영된 결과물을 새로운 Object Capture API를 지원하는 Mac에 복사합니다. "photogrammetry"라고 불리는 기술을 사용해서 몇 분 만에 2D 이미지 들을 3D 모델로 변경할 수 있습니다. 출력된 결과에는 기하학적 구조를 담당하는 메시와 다양한 material map들이 포함되어 있으며 앱에 넣거나 AR Quick Look에서 바로 결과를 확인할 수 있습니다. 위의 단계들을 좀 더 세분화하여 살펴보자면 사진 촬영 단계에서는 다양한 방법으로 사진을 촬..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10021/ Safe areas SwiftUI에서 콘텐츠를 최대한 크게 잡아도 상 하단에 빈 여백이 존재할 수 있습니다. SwiftUI의 항목은 표시가 잘리는 것을 방지하기 위해 기본적으로 Safe area 안에 존재하도록 되어 있습니다. 키보드가 표시되었을 때에도 동일한 동작으로 SwiftUI는 Keyboard safe area내에 배치되어 화면에 표시됩니다. Container safe area는 장치의 테두리나 상단 바 등에 의해서 UI가 가려지는 것을 막아주는 역할을 합니다. Keyboard safe area는 키보드에 의해서 UI가 가려지는 것을 막는 역할을 수행합니다. 콘텐츠가 잘려도 최대한의 영..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10247/ 사진이나 비디오 촬영 시에 사용자가 정의한 렌더링은 좋은 품질을 얻더라도 비용이 많이 들 수 있습니다. 때로는 프레임이 끊기는 것을 방지하기 위해 낮은 해상도를 선호할 수 도 있습니다. 이런 여러 가지 시나리오가 있기 때문에 품질과 성능의 원하는 타협점을 찾는 것이 중요합니다. 사진을 찍기 위해 카메라를 제어할 수 있는 AVCaptureDevice를 이용해서 AVCaptureDeviceInput를 구성합니다. 그다음 AVCaptureSession 객체를 연결하고 그 뒤에 사진의 결과를 받을 AVCapturePhotoOutput을 추가합니다. 이러한 요소 간의 연결에 AVCaptureConnec..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10018/ SwiftUI는 선언적으로 UI를 만들 수 있도록 2019년에 출시되었습니다. SwiftUI의 두 번째 릴리즈에서는 새로운 App 및 Scene API로 100% SwiftUI 앱을 이루었습니다. 올해에는 풍부하고 새로운 기능들을 추가하여 더 깊은 지원을 SwiftUI로 할 수 있습니다. iOS, iPadOS, macOS용 Notes 앱에서 새로운 활동 목록은 SwiftUI로 이루어져 있으며, 이렇게 기존의 앱에 완전히 새로운 기능을 SwiftUI로 만들어 보는 것이 SwiftUI를 시작하는 좋은 방법 중 하나입니다. 날씨 앱처럼 완전히 새로운 앱을 만들 수도 있고 기존 UIKit과 함께 섞어..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10049/ Widget intelligence overview iOS 14에 적용된 스마트 회전을 사용하면 시스템이 스택의 위젯 중 현재 상황에 알맞은 위젯으로 자동 스크롤할 수 있습니다. 자동 스크롤할 시점을 판단하기 위해 위젯이 제공하는 타임라인과 신호를 사용합니다. 사용자의 앱을 사용하는 행동 패턴도 학습되어 반영됩니다. 위젯 스택에 날씨, 일정, 알림이 있을 때 아침에는 그날 날씨를 안내하기 위해 날씨를 보여줄 수 있습니다. 이후 10시 회의가 있으면 9시 30분쯤에는 캘린더로 회전하여 회의 일정을 보여줄 수 있습니다. 알림에 등록된 일정의 시간이 가까워지면 위젯은 알림 위젯으로 회전할 것입니다...
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10290/ Picture in Picture 사용자가 다른 작업을 하면서 동시에 비디오를 계속 시청할 수 있는 기능이 Picture in Picture입니다. 비디오를 계속 보면서 중간에 메시지에 대한 답장을 하는 식의 동작을 할 수 있습니다. 올해에는 사용자가 홈 화면으로 이동했을 때에도 PiP 화면이 동작하는 기능이 추가되었습니다. 이 동작을 활성화하려면 AVPlayerViewController나 AVPictureInPictureController의 canStartPictureInPicture AutomaticallyFromInline 속성을 true로 설정하면 됩니다. AVPlayerViewCont..
원본 영상: https://developer.apple.com/videos/play/wwdc2021/10047/ AVFoundation capture classes AVCaptureDevice는 핵심 객체인 카메라 또는 마이크를 나타내는 입니다. AVCaptureDeviceInputs는 이러한 장치를 감싸며, 중앙 제어 객체인 AVCaptureSession에 연결할 수 있습니다. AVCaptureOutputs는 각각의 방식으로 입력된 데이터를 표시합니다. MovieFileOutput은 QuickTime 동영상을 저장하며, PhotoOutput은 Live Photo 및 고해상도 이미지를 저장합니다. VideoDataOutput과 AudioDataOutput은 비디오, 오디오 버퍼를 전달합니다. CALaye..