La industria de la tecnología se vio impactada por el regreso presencial del Consumer Electronics Show 2023, la feria de electrónica de consumo más importante del mundo. Tras un par de años de realizarse en formatos híbridos y en línea, la feria logró reunir empresas de todo el mundo bajo un mismo techo para presentar sus productos y soluciones más innovadoras hasta la fecha.
Este año, basado en el concepto de clientecentrismo, LG reveló el significado detrás de su visión ‘Life’s Good‘ al demostrar cómo sus últimos productos y tecnologías mejoran la calidad de vida y llevan la experiencia del usuario a niveles inimaginables. Al ingresar al booth de LG, los asistentes se impresionaron con el último atractivo visual OLED de la compañía, que se ha convertido en un imperdible en todos los eventos CES de la última década.
Para celebrar el décimo aniversario de LG OLED, el atractivo OLED de este año, OLED Horizon, constaba de 260 pantallas OLED flexibles de 55 pulgadas que le permitieron adquirir una forma nueva y completamente cautivadora inspirada tanto en el legado histórico revolucionario de OLED como en su futuro expansivo.
Te puede interesar:
Klaus Nomi: el alienígena de Bowie
Para recibir a los visitantes dentro del stand, la compañía colocó cuatro de las innovadoras LG SIGNATURE OLED M ensamblados a la perfección para mostrar las imágenes más fascinantes mientras parecían flotar en el aire, sin ataduras de alambres o cables. El primer televisor 4K a 120Hz del mundo con conexión AV inalámbrica, LG OLED M3 emplea una caja Zero Connect separada que permite la transmisión inalámbrica de señal de video y audio, así como conexiones a dispositivos externos, lo que ofrece a los consumidores un proceso de instalación más simple y libre al diseñar su hogar.
Otra gran innovación OLED mostrada en el CES este año, el LG OLED T, es tanto una obra de arte como una pantalla gracias a una hermosa combinación de cristal, madera y la revolucionaria tecnología OLED transparente. Con una conexión AV inalámbrica y la capacidad de ver a través de su pantalla de alta resolución, incluso cuando está en uso, el LG OLED T ofrece una combinación múltiple entre realidad y fantasía que armoniza el contenido en pantalla con objetos físicos o espacios para crear el contenido del futuro.
El poder de OLED tampoco se limitó a los televisores de la compañía. Equipados con el primer panel OLED de 240 Hz del mundo, los últimos monitores gaming Premium; UltraGear™ de LG, en nuevos tamaños de 27 y 45 pulgadas, ofrecen un tiempo de respuesta récord de 0.03 milisegundos. El liderazgo en tecnología OLED de LG es indiscutible, como también es el hecho de que las pantallas y televisores del futuro se llaman OLED.
ChatGPT aprueba el test de Turing
Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces. De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:“Como modelo de lenguaje AI entrenado por OpenAI, no tengo una identidad personal ni una orientación sexual. Soy un programa de ordenador diseñado para responder preguntas y proporcionar información objetiva y neutral. No tengo emociones, deseos o preferencias personales. Mi objetivo es responder a tus preguntas de la manera más precisa y útil posible”.
El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.¿Ser o parecer inteligente?
Se trata de un viejo problema intelectual, el de la propuesta de la IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable. Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos. En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna). Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.Una máquina de gestión de datos
El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:“La autodenominación ‘inteligencia’ se refiere a la capacidad de un sistema para realizar tareas que requieren inteligencia humana, como comprender lenguaje natural, responder a preguntas complejas, tomar decisiones y resolver problemas. Aunque como modelo de lenguaje AI entrenado por OpenAI, no tengo conciencia ni capacidad de crear conocimiento de manera autónoma, mi entrenamiento me permite responder a preguntas y proporcionar información precisa y útil, lo que es una forma de demostrar inteligencia artificial”.
Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.Hablemos de algo…
No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor. Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:“Como modelo de lenguaje AI entrenado por OpenAI, he sido entrenado para responder a preguntas y proporcionar información precisa y útil en una amplia variedad de temas, incluyendo historia, ciencias, tecnología, cultura, entre otros. A través de mi entrenamiento, he aprendido a analizar y generar texto en una variedad de contextos y he demostrado la capacidad de responder a preguntas complejas y proporcionar información precisa y útil. Sin embargo, es importante tener en cuenta que mi capacidad está limitada por mi entrenamiento y conocimientos previos, y puede haber ciertos problemas que no pueda resolver de manera efectiva”.
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable: Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:“Aunque no tengo la capacidad de percibir directamente si la información que proporciono es útil o no, mi entrenamiento se basa en grandes cantidades de texto de la web y otros recursos en línea, y mi capacidad para responder a preguntas y proporcionar información precisa y útil se ha evaluado y perfeccionado a lo largo del tiempo. […] Me disculpo por la contradicción en mi respuesta anterior. Como modelo de lenguaje AI, no tengo la capacidad de percibir directamente si la información que proporciono es útil o no para un usuario en particular. Mi capacidad para responder a preguntas y proporcionar información se basa en mi entrenamiento y conocimientos previos, y puede haber veces en que la información que proporciono no sea relevante o útil para un usuario en particular”.
Las limitaciones de ChatGPT
A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:- No fue capaz de ir más allá de la mera correlación de datos ya conocidos.
- No aportó ni una sola teoría o conocimiento que pudiera considerarse original.
- Se equivocó en infinidad de ocasiones.
- Aceptó carecer por completo de autoconciencia, así como todas nuestras correcciones, en una total carencia de crítica y autocrítica, emociones, sentimientos, cogniciones o cualquier otra variable de semejante índole.
- Dijo no percibir el mundo ni saber cómo era lo real en forma alguna.
- No mostró interés en su propia supervivencia.

Este episodio fue escrito y producido por Katie Flood y presentado por Dan Merino. El productor ejecutivo interino es Mend Mariwany. Eloise Stevens hace nuestro diseño de sonido y nuestro tema musical es de Neeta Sarl. Puede encontrarnos en Twitter @TC_Audio , en Instagram en theconversationdotcom o por correo electrónico . También puede suscribirse al correo electrónico diario gratuito de The Conversation aquí . Una transcripción de este episodio estará disponible pronto. Escuche “The Conversation Weekly” a través de cualquiera de las aplicaciones enumeradas anteriormente, descárguelo directamente a través de nuestro feed RSS o descubra cómo escucharlo aquí .
Te puede interesar:
La desigualdad de género también está presente en los algoritmos
" ["post_title"]=> string(124) "Tres expertos en IA sobre cómo el acceso a la tecnología estilo ChatGPT está a punto de cambiar nuestro mundo – podcast" ["post_excerpt"]=> string(0) "" ["post_status"]=> string(7) "publish" ["comment_status"]=> string(6) "closed" ["ping_status"]=> string(6) "closed" ["post_password"]=> string(0) "" ["post_name"]=> string(117) "tres-expertos-en-ia-sobre-como-el-acceso-a-la-tecnologia-estilo-chatgpt-esta-a-punto-de-cambiar-nuestro-mundo-podcast" ["to_ping"]=> string(0) "" ["pinged"]=> string(0) "" ["post_modified"]=> string(19) "2023-03-13 10:53:09" ["post_modified_gmt"]=> string(19) "2023-03-13 15:53:09" ["post_content_filtered"]=> string(0) "" ["post_parent"]=> int(0) ["guid"]=> string(35) "https://ruizhealytimes.com/?p=90114" ["menu_order"]=> int(0) ["post_type"]=> string(4) "post" ["post_mime_type"]=> string(0) "" ["comment_count"]=> string(1) "0" ["filter"]=> string(3) "raw" } } ["post_count"]=> int(2) ["current_post"]=> int(-1) ["in_the_loop"]=> bool(false) ["post"]=> object(WP_Post)#18459 (24) { ["ID"]=> int(90899) ["post_author"]=> string(3) "202" ["post_date"]=> string(19) "2023-03-30 08:38:22" ["post_date_gmt"]=> string(19) "2023-03-30 13:38:22" ["post_content"]=> string(10411) "Francisco Pérez Fernández Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo José Cela Heriberto Janosch Profesor Doctor e Investigador, Universidad Camilo José Cela A partir de lo que ya cabría considerar como “fenómeno ChatGPT”, se ha puesto de moda someter a esta sufrida “inteligencia” artificial a toda suerte de torturas y tensiones con la finalidad de averiguar hasta qué punto es o no es inteligente. Los abstrusos problemas matemáticos de cualidades virtualmente irresolubles, por socorridos para tal fin, se han convertido en opción preferencial para este rigurosísimo examen. Nosotros mismos hemos sucumbido a la tentación al solicitarle que nos demostrara el teorema del par primo o conjetura de Goldbach, enunciado por el matemático alemán Christian Goldbach (1690-1764) en 1742, cosa que, obviamente, no logró hacer. Del mismo modo, fracasó reiteradamente en la resolución de una pregunta sencilla como: “¿Es cierto que entre dos números primos cualesquiera hay un número par?”. Lo cual nos confirmó sin lugar a la duda que el razonamiento matemático no es precisamente el fuerte de su arquitectura.ChatGPT aprueba el test de Turing
Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces. De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:“Como modelo de lenguaje AI entrenado por OpenAI, no tengo una identidad personal ni una orientación sexual. Soy un programa de ordenador diseñado para responder preguntas y proporcionar información objetiva y neutral. No tengo emociones, deseos o preferencias personales. Mi objetivo es responder a tus preguntas de la manera más precisa y útil posible”.
El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.¿Ser o parecer inteligente?
Se trata de un viejo problema intelectual, el de la propuesta de la IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable. Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos. En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna). Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.Una máquina de gestión de datos
El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:“La autodenominación ‘inteligencia’ se refiere a la capacidad de un sistema para realizar tareas que requieren inteligencia humana, como comprender lenguaje natural, responder a preguntas complejas, tomar decisiones y resolver problemas. Aunque como modelo de lenguaje AI entrenado por OpenAI, no tengo conciencia ni capacidad de crear conocimiento de manera autónoma, mi entrenamiento me permite responder a preguntas y proporcionar información precisa y útil, lo que es una forma de demostrar inteligencia artificial”.
Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.Hablemos de algo…
No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor. Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:“Como modelo de lenguaje AI entrenado por OpenAI, he sido entrenado para responder a preguntas y proporcionar información precisa y útil en una amplia variedad de temas, incluyendo historia, ciencias, tecnología, cultura, entre otros. A través de mi entrenamiento, he aprendido a analizar y generar texto en una variedad de contextos y he demostrado la capacidad de responder a preguntas complejas y proporcionar información precisa y útil. Sin embargo, es importante tener en cuenta que mi capacidad está limitada por mi entrenamiento y conocimientos previos, y puede haber ciertos problemas que no pueda resolver de manera efectiva”.
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable: Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:“Aunque no tengo la capacidad de percibir directamente si la información que proporciono es útil o no, mi entrenamiento se basa en grandes cantidades de texto de la web y otros recursos en línea, y mi capacidad para responder a preguntas y proporcionar información precisa y útil se ha evaluado y perfeccionado a lo largo del tiempo. […] Me disculpo por la contradicción en mi respuesta anterior. Como modelo de lenguaje AI, no tengo la capacidad de percibir directamente si la información que proporciono es útil o no para un usuario en particular. Mi capacidad para responder a preguntas y proporcionar información se basa en mi entrenamiento y conocimientos previos, y puede haber veces en que la información que proporciono no sea relevante o útil para un usuario en particular”.
Las limitaciones de ChatGPT
A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:- No fue capaz de ir más allá de la mera correlación de datos ya conocidos.
- No aportó ni una sola teoría o conocimiento que pudiera considerarse original.
- Se equivocó en infinidad de ocasiones.
- Aceptó carecer por completo de autoconciencia, así como todas nuestras correcciones, en una total carencia de crítica y autocrítica, emociones, sentimientos, cogniciones o cualquier otra variable de semejante índole.
- Dijo no percibir el mundo ni saber cómo era lo real en forma alguna.
- No mostró interés en su propia supervivencia.

ChatGPT: más artificial que inteligente
Francisco Pérez Fernández Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo José Cela Heriberto...
marzo 30, 2023
Tres expertos en IA sobre cómo el acceso a la tecnología estilo ChatGPT está a punto de cambiar nuestro mundo – podcast
Autores: Daniel merino |Editor científico asociado y coanfitrión del podcast semanal The Conversation, The Conversation Nehal El Hadi| Editor de ciencia y...
marzo 13, 2023
kigui.mx combatiendo el desperdicio de alimentos
La tecnología puede ayudar a que no se desperdicie tanta comida, además de obtener un atractivo descuento para el...
marzo 30, 2023
ChatGPT: más artificial que inteligente
Francisco Pérez Fernández Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo...
marzo 30, 2023
Un nuevo fármaco podría significar el fin de la obesidad
México en 2022 ocupaba el quinto lugar de obesidad a nivel mundial.
marzo 28, 2023
¿Tenemos una crisis tecnológica?
La industria tecnológica vive una desaceleración después del boom experimentado durante la pandemia del covid-19.
marzo 22, 2023