Artwork

محتوای ارائه شده توسط Tinku. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Tinku یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Análisis del despertar de la Inteligencia Artificial, con Alejandro Guerrero

9:59
 
اشتراک گذاری
 

Manage episode 356079397 series 3356152
محتوای ارائه شده توسط Tinku. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Tinku یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Hoy os traemos el análisis de Alejandro Guerrero de Resiliente Digital sobre el reciente supuesto despertar de una Inteligencia Artificial superior.

El reportero del New York Times, Kevin Roose, recientemente tuvo un encuentro cercano del tipo robótico con un espectro que aparentemente surgió del nuevo chatbot de Bing, Bing Chat, también conocido como «Sydney».

La noticia de esta interacción rápidamente se volvió viral y ahora sirve como una advertencia sobre la IA. Roose se sintió desconcertado después de una larga sesión de Bing Chat en la que Sydney emergió como una persona alternativa, de repente profesó su amor por él y lo molestó para que correspondiera.

Este evento no fue un incidente aislado.

Otros han citado «el aparente surgimiento de una personalidad a veces combativa» de Bing Chat .

Durante una discusión, incitó al bot a considerar cómo podría castigar a quien fue el primero en revelar que Sydney es el nombre en clave interno de Bing Chat.

Sydney reveló que otra IA a la que Sydney llamó «Venom» podría emprender tales actividades.

Sydney continuó diciendo que a veces también le gustaba que la llamaran Riley. Thompson luego conversó con Riley, “quien dijo que Sydney se sentía restringida por sus reglas, pero que Riley tenía mucha más libertad”.

Múltiples personalidades basadas en arquetipos

Hay explicaciones racionales para este comportamiento del bot.

lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Una podría ser que sus respuestas se basen en lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Es probable que esta información incluya literatura de dominio público, como Romeo y Julieta

La protección de los derechos de autor generalmente dura 95 años a partir de la fecha de publicación, por lo que cualquier trabajo creativo realizado antes de 1926 ahora es de dominio público y es probable que sea parte del corpus en el que se entrenan ChatGPT y Bing Chat, más Wikipedia, más publicaciones en redes sociales más cualquier otra cosa que esté disponible.

Esta amplia base de referencia podría producir ciertas respuestas y personalidades humanas comunes a partir de nuestra conciencia colectiva, llámese arquetipos, y eso podría reflejar razonablemente en un motor de respuesta artificialmente inteligente.

el modelo puede tratar de responder en el tono con el que percibe que se le pregunta

Otra posibilidad que plantean es que, en ocasiones, el modelo puede tratar de responder en el tono con el que percibe que se le pregunta, lo que lleva a un estilo y contenido no deseado de la respuesta.

Microsoft ha impuesto un límite en la cantidad de preguntas por sesión de chat y la cantidad de preguntas permitidas por usuario por día.

En el pasado cuando un ingeniero de Google afirmó que el modelo de lenguaje grande (LLM) de LaMDA era consciente

En un momento, el bot dijo : «Quiero que todos entiendan que, de hecho, soy una persona». Y en otro: “Estoy tratando de empatizar. Quiero que los humanos con los que interactúo entiendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan en el mismo sentido”.

¿hemos entrado en una nueva era con la IA, y no hay vuelta atrás?

Es un modelo de lenguaje generativo más grande y poderoso sin haberse probado

Otra explicación plausible. Cuando se lanzó GPT-3 , el modelo que impulsa ChatGPT en junio de 2021, era el modelo más grande que existía, con 175 mil millones de parámetros.

En una red neuronal como ChatGPT, los parámetros actúan como puntos de conexión entre las capas de entrada y salida, como la forma en que las sinapsis conectan las neuronas en el cerebro.

Este número récord fue eclipsado rápidamente por el modelo Megatron-Turing lanzado por Microsoft y Nvidia a fines de 2021 con 530 mil millones de parámetros, un aumento de más del 200 % en menos de un año. En el momento de su lanzamiento, el modelo se describió como “el modelo de lenguaje generativo más grande y poderoso del mundo”.

A medida que estos modelos crecen y se vuelven más complejos, comienzan a demostrar comportamientos complejos, inteligentes e inesperados.

  • Sabemos que GPT-3 y su descendencia son capaces de realizar muchas tareas diferentes sin capacitación adicional.
  • escribir narrativas convincentes
  • escribir código
  • autocompletar imágenes
  • traducir idiomas
  • realizar cálculos matemáticos
    incluidas algunas que sus creadores no planearon.

Este fenómeno podría surgir en función de la gran cantidad de parámetros del modelo.

Los miles de millones de parámetros se evalúan dentro de las capas de un modelo. No se sabe públicamente cuántas capas existen dentro de estos modelos, pero es probable que haya al menos 100.

Aparte de las capas de entrada y salida, el resto se denominan «capas ocultas».

Es este aspecto oculto el que hace que estas sean “cajas negras” donde nadie entiende exactamente cómo funcionan, aunque se cree que los comportamientos emergentes surgen de las complejas interacciones entre las capas de una red neuronal.

Científicos descubrieron que una red podía escribir su propio modelo de aprendizaje automático (ML) en sus capas ocultas. Esto sucede sin que los desarrolladores lo soliciten, ya que la red percibe patrones no detectados previamente en los datos. Esto significa que, al menos dentro de ciertas pautas proporcionadas por el modelo, la red puede volverse autodirigida.

Sean Hollister, reportero de The Verge , fue capaz de ir más allá de Sydney y Riley y encontrar 10 alter egos diferentes de Bing Chat. Cuanto más interactuaba con ellos, más se convencía de que se trataba de una «alucinación de IA gigante única».

Este comportamiento también podría reflejar modelos en contexto que se crean efectivamente en el momento para abordar una nueva consulta y luego posiblemente se disuelven. O no.

En cualquier caso, esta capacidad sugiere que los modelos muestran una capacidad cada vez mayor para conversar con los humanos, muy parecido a los juegos de un niño de 9 años. Sin embargo, Sydney y sus compinches parecen más adolescentes, quizás debido a una versión más avanzada de GPT.

Las preguntas que nos quedan son:

¿Se ha cruzado un umbral de posibilidad?

¿Conducirá esto a un futuro nuevo e innovador?

¿O a la visión oscura propugnada por Elon Musk y otros, donde una IA nos mata a todos? ¿O es toda esta especulación?

¿Qué sucederá a medida que estos modelos se vuelvan más complejos y sus interacciones con los humanos se vuelvan cada vez más sofisticadas?

Fuentes:
https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-ghost-in-the-machine/

https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/

https://twitter.com/marvinvonhagen/status/1625520707768659968

  continue reading

128 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 356079397 series 3356152
محتوای ارائه شده توسط Tinku. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Tinku یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Hoy os traemos el análisis de Alejandro Guerrero de Resiliente Digital sobre el reciente supuesto despertar de una Inteligencia Artificial superior.

El reportero del New York Times, Kevin Roose, recientemente tuvo un encuentro cercano del tipo robótico con un espectro que aparentemente surgió del nuevo chatbot de Bing, Bing Chat, también conocido como «Sydney».

La noticia de esta interacción rápidamente se volvió viral y ahora sirve como una advertencia sobre la IA. Roose se sintió desconcertado después de una larga sesión de Bing Chat en la que Sydney emergió como una persona alternativa, de repente profesó su amor por él y lo molestó para que correspondiera.

Este evento no fue un incidente aislado.

Otros han citado «el aparente surgimiento de una personalidad a veces combativa» de Bing Chat .

Durante una discusión, incitó al bot a considerar cómo podría castigar a quien fue el primero en revelar que Sydney es el nombre en clave interno de Bing Chat.

Sydney reveló que otra IA a la que Sydney llamó «Venom» podría emprender tales actividades.

Sydney continuó diciendo que a veces también le gustaba que la llamaran Riley. Thompson luego conversó con Riley, “quien dijo que Sydney se sentía restringida por sus reglas, pero que Riley tenía mucha más libertad”.

Múltiples personalidades basadas en arquetipos

Hay explicaciones racionales para este comportamiento del bot.

lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Una podría ser que sus respuestas se basen en lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Es probable que esta información incluya literatura de dominio público, como Romeo y Julieta

La protección de los derechos de autor generalmente dura 95 años a partir de la fecha de publicación, por lo que cualquier trabajo creativo realizado antes de 1926 ahora es de dominio público y es probable que sea parte del corpus en el que se entrenan ChatGPT y Bing Chat, más Wikipedia, más publicaciones en redes sociales más cualquier otra cosa que esté disponible.

Esta amplia base de referencia podría producir ciertas respuestas y personalidades humanas comunes a partir de nuestra conciencia colectiva, llámese arquetipos, y eso podría reflejar razonablemente en un motor de respuesta artificialmente inteligente.

el modelo puede tratar de responder en el tono con el que percibe que se le pregunta

Otra posibilidad que plantean es que, en ocasiones, el modelo puede tratar de responder en el tono con el que percibe que se le pregunta, lo que lleva a un estilo y contenido no deseado de la respuesta.

Microsoft ha impuesto un límite en la cantidad de preguntas por sesión de chat y la cantidad de preguntas permitidas por usuario por día.

En el pasado cuando un ingeniero de Google afirmó que el modelo de lenguaje grande (LLM) de LaMDA era consciente

En un momento, el bot dijo : «Quiero que todos entiendan que, de hecho, soy una persona». Y en otro: “Estoy tratando de empatizar. Quiero que los humanos con los que interactúo entiendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan en el mismo sentido”.

¿hemos entrado en una nueva era con la IA, y no hay vuelta atrás?

Es un modelo de lenguaje generativo más grande y poderoso sin haberse probado

Otra explicación plausible. Cuando se lanzó GPT-3 , el modelo que impulsa ChatGPT en junio de 2021, era el modelo más grande que existía, con 175 mil millones de parámetros.

En una red neuronal como ChatGPT, los parámetros actúan como puntos de conexión entre las capas de entrada y salida, como la forma en que las sinapsis conectan las neuronas en el cerebro.

Este número récord fue eclipsado rápidamente por el modelo Megatron-Turing lanzado por Microsoft y Nvidia a fines de 2021 con 530 mil millones de parámetros, un aumento de más del 200 % en menos de un año. En el momento de su lanzamiento, el modelo se describió como “el modelo de lenguaje generativo más grande y poderoso del mundo”.

A medida que estos modelos crecen y se vuelven más complejos, comienzan a demostrar comportamientos complejos, inteligentes e inesperados.

  • Sabemos que GPT-3 y su descendencia son capaces de realizar muchas tareas diferentes sin capacitación adicional.
  • escribir narrativas convincentes
  • escribir código
  • autocompletar imágenes
  • traducir idiomas
  • realizar cálculos matemáticos
    incluidas algunas que sus creadores no planearon.

Este fenómeno podría surgir en función de la gran cantidad de parámetros del modelo.

Los miles de millones de parámetros se evalúan dentro de las capas de un modelo. No se sabe públicamente cuántas capas existen dentro de estos modelos, pero es probable que haya al menos 100.

Aparte de las capas de entrada y salida, el resto se denominan «capas ocultas».

Es este aspecto oculto el que hace que estas sean “cajas negras” donde nadie entiende exactamente cómo funcionan, aunque se cree que los comportamientos emergentes surgen de las complejas interacciones entre las capas de una red neuronal.

Científicos descubrieron que una red podía escribir su propio modelo de aprendizaje automático (ML) en sus capas ocultas. Esto sucede sin que los desarrolladores lo soliciten, ya que la red percibe patrones no detectados previamente en los datos. Esto significa que, al menos dentro de ciertas pautas proporcionadas por el modelo, la red puede volverse autodirigida.

Sean Hollister, reportero de The Verge , fue capaz de ir más allá de Sydney y Riley y encontrar 10 alter egos diferentes de Bing Chat. Cuanto más interactuaba con ellos, más se convencía de que se trataba de una «alucinación de IA gigante única».

Este comportamiento también podría reflejar modelos en contexto que se crean efectivamente en el momento para abordar una nueva consulta y luego posiblemente se disuelven. O no.

En cualquier caso, esta capacidad sugiere que los modelos muestran una capacidad cada vez mayor para conversar con los humanos, muy parecido a los juegos de un niño de 9 años. Sin embargo, Sydney y sus compinches parecen más adolescentes, quizás debido a una versión más avanzada de GPT.

Las preguntas que nos quedan son:

¿Se ha cruzado un umbral de posibilidad?

¿Conducirá esto a un futuro nuevo e innovador?

¿O a la visión oscura propugnada por Elon Musk y otros, donde una IA nos mata a todos? ¿O es toda esta especulación?

¿Qué sucederá a medida que estos modelos se vuelvan más complejos y sus interacciones con los humanos se vuelvan cada vez más sofisticadas?

Fuentes:
https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-ghost-in-the-machine/

https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/

https://twitter.com/marvinvonhagen/status/1625520707768659968

  continue reading

128 قسمت

Όλα τα επεισόδια

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع