#ios #augmented-reality #scenekit #arkit
#iOS #дополненная реальность #scenekit #arkit
Вопрос:
Я реализовал следующий код, который позволяет мне отслеживать различные выражения лица человека. Но с помощью этого кода я не могу отслеживать движения головы человека вверх и вниз с помощью ARKit в Xcode. Я был бы признателен, если бы кто-нибудь мог сообщить мне, как мне отслеживать движение головы человека вверх и вниз с помощью ARKit, используя Xcode!
import UIKit
import SceneKit
import ARKit
class ViewController: UIViewController, ARSCNViewDelegate {
@IBOutlet var sceneView: ARSCNView!
@IBOutlet weak var faceLabel: UILabel!
@IBOutlet weak var labelView: UIView!
var analysis = ""
override func viewDidLoad() {
super.viewDidLoad()
labelView.layer.cornerRadius = 10
sceneView.delegate = self
sceneView.showsStatistics = true
guard ARFaceTrackingConfiguration.isSupported else {
fatalError("Face tracking is not supported on this device")
}
}
override func viewWillAppear(_ animated: Bool) {
super.viewWillAppear(animated)
// Create a session configuration
let configuration = ARFaceTrackingConfiguration()
// Run the view's session
sceneView.session.run(configuration)
}
override func viewWillDisappear(_ animated: Bool) {
super.viewWillDisappear(animated)
// Pause the view's session
sceneView.session.pause()
}
// MARK: - ARSCNViewDelegate
func renderer(_ renderer: SCNSceneRenderer, nodeFor anchor: ARAnchor) -> SCNNode? {
let faceMesh = ARSCNFaceGeometry(device: sceneView.device!)
let node = SCNNode(geometry: faceMesh)
node.geometry?.firstMaterial?.fillMode = .lines
return node
}
func renderer(_ renderer: SCNSceneRenderer, didUpdate node: SCNNode, for anchor: ARAnchor) {
if let faceAnchor = anchor as? ARFaceAnchor, let faceGeometry = node.geometry as? ARSCNFaceGeometry {
faceGeometry.update(from: faceAnchor.geometry)
expression(anchor: faceAnchor)
DispatchQueue.main.async {
self.faceLabel.text = self.analysis
}
}
}
func expression(anchor: ARFaceAnchor) {
let smileLeft = anchor.blendShapes[.mouthSmileLeft]
let smileRight = anchor.blendShapes[.mouthSmileRight]
let cheekPuff = anchor.blendShapes[.cheekPuff]
let tongue = anchor.blendShapes[.tongueOut]
self.analysis = ""
if ((smileLeft?.decimalValue ?? 0.0) (smileRight?.decimalValue ?? 0.0)) > 0.9 {
self.analysis = "You are smiling. "
}
if cheekPuff?.decimalValue ?? 0.0 > 0.1 {
self.analysis = "Your cheeks are puffed. "
}
if tongue?.decimalValue ?? 0.0 > 0.1 {
self.analysis = "Don't stick your tongue out! "
}
}
}
Ответ №1:
Свойство экземпляра blendShapes
представляет собой словарь из 52 коэффициентов, представляющих выражения лица. Кивки головой — это не выражения лица, которые нужно обнаруживать, поэтому самый быстрый способ реализовать кивок головы — это управлять ARFaceAnchor
направлением или ориентацией узла.
func renderer(_ renderer: SCNSceneRenderer,
didUpdate node: SCNNode,
for anchor: ARAnchor) {
if let faceAnchor = anchor as? ARFaceAnchor,
let faceGeo = node.geometry as? ARSCNFaceGeometry {
if faceAnchor.lookAtPoint.y <= 0 {
print("A head is...")
}
if node.orientation.x >= Float.pi/32 {
print("A head is...")
}
}
}
Комментарии:
1. Спасибо за ответ. Одна вещь, на которую я хотел бы обратить внимание, это то, что когда голова указывает вверх, она печатает «Голова опущена». Итак, я думаю, что операторы печати должны быть отменены. В противном случае все работает нормально. Ценю это!