ChatGPT

ChatGPT

✅ Microsoft está considerando ChatGPT en las aplicaciones de Office

Los rumores dicen que Microsoft ya lo está usando en Word.

Se dice que Microsoft está trabajando para incluir la tecnología de chatbot ChatGPT de OpenAI en algunas aplicaciones de Office.

Según The Information, los usuarios de Outlook, Word y PowerPoint podrán utilizar la tecnología para producir contenido automáticamente utilizando indicaciones de lenguaje natural.

“Durante más de un año, los ingenieros e investigadores de Microsoft han trabajado para crear herramientas de IA personalizadas para componer correos electrónicos y documentos aplicando los modelos de aprendizaje automático de OpenAI a los datos privados de los clientes”, dijo una persona con conocimiento directo del plan.

“Los ingenieros están desarrollando métodos para entrenar estos modelos en los datos de los clientes sin que se filtren a otros clientes o caigan en manos de malos actores”, añadieron.

ChatGPT es un chatbot que puede responder a una amplia variedad de preguntas mientras emula estilos de habla humana. OpenAI lo lanzó para pruebas públicas gratuitas el 30 de noviembre y ha generado entusiasmo con sus respuestas humanas a las preguntas del lenguaje natural.

La gente ya ha usado la aplicación para escribir ensayos, poemas, letras, cartas de presentación y CV. También es capaz de resolver problemas matemáticos y analizar el código informático. Sin embargo, sus resultados no son totalmente confiables y algunas instituciones, incluida la Conferencia Internacional sobre Aprendizaje Automático, Stack Overflow y las escuelas públicas de la ciudad de Nueva York, han prohibido las presentaciones que utilizan sus resultados.

OpenAI ha admitido que ChatGPT a veces puede proporcionar información errónea.

La información afirma que Microsoft ya está utilizando el modelo GPT generador de texto de OpenAI para mejorar la funcionalidad de autocompletado en Word. También está utilizando la tecnología para mejorar los resultados de búsqueda de Outlook.

La semana pasada, un informe afirmó que Microsoft está trabajando para incorporar el chatbot ChatGPT de OpenAI a su motor de búsqueda de Bing para hacerlo más inteligente y desafiar el dominio de la búsqueda de Google.

Microsoft podría lanzar la nueva función antes de finales de marzo, añadió el informe.

La herramienta de IA de Microsoft puede simular la voz humana con una muestra de tres segundos

En las noticias relacionadas con la IA de Microsoft, los investigadores de la compañía han anunciado un nuevo modelo de IA de texto a voz (TTS) llamado VALL-E, que puede replicar con precisión la voz de una persona usando solo tres segundos de audio.

Microsoft describe VALL-E como un sistema TTS impulsado por la IA que se puede enseñar a hablar como cualquier persona. Los investigadores llaman a la herramienta un “modelo de lenguaje de códec neural”.

Una vez que VALL-E ha aprendido una voz en particular, puede simular que esa persona diga cualquier otra cosa, y lo hace de una manera que preserve el tono emocional del orador.

VALL-E se basa en EnCodec, una tecnología Meta introducida en octubre de 2022. Produce distintos códigos de códec de audio a partir de texto y indicaciones acústicas, en contraste con los sistemas TTS convencionales que generalmente generan voz modificando las formas de onda.

La herramienta analiza el discurso de una persona y lo divide en partes distintas (tokens). Luego utiliza datos de entrenamiento para determinar cómo sonaría esa voz si dijera frases distintas de la muestra de tres segundos.

La herramienta de IA ha sido entrenada con 60.000 horas de entrada de audio de miles de personas diferentes, incluidos audiolibros de dominio público.

Sus desarrolladores dicen que VALL-E podría combinarse con otros modelos de IA generativos como GPT-3 para crear contenido de audio. Podría usarse para aplicaciones de texto a voz de alta calidad, así como aplicaciones de edición de voz que permiten que se utilice una transcripción de texto para editar y cambiar una grabación de una persona.

Sin embargo, al igual que con cualquier tecnología de simulación humana, hay implicaciones obvias de seguridad que deben considerarse desde el principio.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Index