Biblioteca76.515 documentos en línea

Artículo

Study on 3D Clothing Color Application Based on Deep Learning-Enabled Macro-Micro Adversarial Network and Human Body ModelingEstudio sobre la aplicación del color de la ropa en 3D basado en la red adversarial macro-micro habilitada por el aprendizaje profundo y el modelado del cuerpo humano

Resumen

En la vida real, la vida de las personas tiende gradualmente a ser simple, por lo que la conveniencia de las compras en línea hace que cada vez más la investigación comience a explorar la optimización de la conveniencia de las compras, en el que el sistema de ajuste es el producto de investigación. Sin embargo, debido a la inmadurez del sistema de ajuste virtual, hay muchos problemas, como la expresión del color de la ropa no es clara o la desviación. En vista de esto, este documento propone un modelo de visualización del color de la ropa en 3D basado en el aprendizaje profundo para apoyar el modelado humano. En primer lugar, la red macro-micro adversarial (MMAN) basada en el aprendizaje profundo se utiliza para analizar la imagen original, y luego, los resultados son preprocesados. Por último, se construye el modelo 3D con el color de la imagen original utilizando el mapeo UV. Los resultados experimentales muestran que la precisión del algoritmo MMAN alcanza 0,972, el modelo tridimensional establecido es lo suficientemente emocional, la expresión del color de la ropa es clara, y la diferencia entre la diferencia de color y la imagen original está dentro de 0,01, y la evaluación subjetiva de los voluntarios es más de 90 puntos. Los resultados anteriores muestran que es eficaz utilizar el aprendizaje profundo para construir un modelo 3D con el color de la ropa de la imagen original, lo que tiene una gran importancia orientativa para la investigación del modelado y la simulación de personajes.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento