object(WP_Query)#18460 (52) {
["query"]=>
array(5) {
["cat"]=>
int(2)
["posts_per_page"]=>
int(2)
["orderby"]=>
string(4) "rand"
["post__not_in"]=>
array(1) {
[0]=>
int(86510)
}
["date_query"]=>
array(1) {
[0]=>
array(3) {
["after"]=>
string(10) "03-03-2023"
["before"]=>
string(10) "31-03-2023"
["inclusive"]=>
bool(true)
}
}
}
["query_vars"]=>
array(66) {
["cat"]=>
int(2)
["posts_per_page"]=>
int(2)
["orderby"]=>
string(4) "rand"
["post__not_in"]=>
array(1) {
[0]=>
int(86510)
}
["date_query"]=>
array(1) {
[0]=>
array(3) {
["after"]=>
string(10) "03-03-2023"
["before"]=>
string(10) "31-03-2023"
["inclusive"]=>
bool(true)
}
}
["error"]=>
string(0) ""
["m"]=>
string(0) ""
["p"]=>
int(0)
["post_parent"]=>
string(0) ""
["subpost"]=>
string(0) ""
["subpost_id"]=>
string(0) ""
["attachment"]=>
string(0) ""
["attachment_id"]=>
int(0)
["name"]=>
string(0) ""
["pagename"]=>
string(0) ""
["page_id"]=>
int(0)
["second"]=>
string(0) ""
["minute"]=>
string(0) ""
["hour"]=>
string(0) ""
["day"]=>
int(0)
["monthnum"]=>
int(0)
["year"]=>
int(0)
["w"]=>
int(0)
["category_name"]=>
string(20) "ciencia-y-tecnologia"
["tag"]=>
string(0) ""
["tag_id"]=>
string(0) ""
["author"]=>
string(0) ""
["author_name"]=>
string(0) ""
["feed"]=>
string(0) ""
["tb"]=>
string(0) ""
["paged"]=>
int(0)
["meta_key"]=>
string(0) ""
["meta_value"]=>
string(0) ""
["preview"]=>
string(0) ""
["s"]=>
string(0) ""
["sentence"]=>
string(0) ""
["title"]=>
string(0) ""
["fields"]=>
string(0) ""
["menu_order"]=>
string(0) ""
["embed"]=>
string(0) ""
["category__in"]=>
array(0) {
}
["category__not_in"]=>
array(0) {
}
["category__and"]=>
array(0) {
}
["post__in"]=>
array(0) {
}
["post_name__in"]=>
array(0) {
}
["tag__in"]=>
array(0) {
}
["tag__not_in"]=>
array(0) {
}
["tag__and"]=>
array(0) {
}
["tag_slug__in"]=>
array(0) {
}
["tag_slug__and"]=>
array(0) {
}
["post_parent__in"]=>
array(0) {
}
["post_parent__not_in"]=>
array(0) {
}
["author__in"]=>
array(0) {
}
["author__not_in"]=>
array(0) {
}
["ignore_sticky_posts"]=>
bool(false)
["suppress_filters"]=>
bool(false)
["cache_results"]=>
bool(true)
["update_post_term_cache"]=>
bool(true)
["update_menu_item_cache"]=>
bool(false)
["lazy_load_term_meta"]=>
bool(true)
["update_post_meta_cache"]=>
bool(true)
["post_type"]=>
string(0) ""
["nopaging"]=>
bool(false)
["comments_per_page"]=>
string(2) "50"
["no_found_rows"]=>
bool(false)
["order"]=>
string(0) ""
}
["tax_query"]=>
object(WP_Tax_Query)#18456 (6) {
["queries"]=>
array(1) {
[0]=>
array(5) {
["taxonomy"]=>
string(8) "category"
["terms"]=>
array(1) {
[0]=>
int(2)
}
["field"]=>
string(7) "term_id"
["operator"]=>
string(2) "IN"
["include_children"]=>
bool(true)
}
}
["relation"]=>
string(3) "AND"
["table_aliases":protected]=>
array(1) {
[0]=>
string(21) "rt_term_relationships"
}
["queried_terms"]=>
array(1) {
["category"]=>
array(2) {
["terms"]=>
array(1) {
[0]=>
int(2)
}
["field"]=>
string(7) "term_id"
}
}
["primary_table"]=>
string(8) "rt_posts"
["primary_id_column"]=>
string(2) "ID"
}
["meta_query"]=>
object(WP_Meta_Query)#18458 (9) {
["queries"]=>
array(0) {
}
["relation"]=>
NULL
["meta_table"]=>
NULL
["meta_id_column"]=>
NULL
["primary_table"]=>
NULL
["primary_id_column"]=>
NULL
["table_aliases":protected]=>
array(0) {
}
["clauses":protected]=>
array(0) {
}
["has_or_relation":protected]=>
bool(false)
}
["date_query"]=>
object(WP_Date_Query)#18457 (5) {
["queries"]=>
array(4) {
[0]=>
array(6) {
["after"]=>
string(10) "03-03-2023"
["before"]=>
string(10) "31-03-2023"
["inclusive"]=>
bool(true)
["column"]=>
string(9) "post_date"
["compare"]=>
string(1) "="
["relation"]=>
string(3) "AND"
}
["column"]=>
string(9) "post_date"
["compare"]=>
string(1) "="
["relation"]=>
string(3) "AND"
}
["relation"]=>
string(3) "AND"
["column"]=>
string(18) "rt_posts.post_date"
["compare"]=>
string(1) "="
["time_keys"]=>
array(14) {
[0]=>
string(5) "after"
[1]=>
string(6) "before"
[2]=>
string(4) "year"
[3]=>
string(5) "month"
[4]=>
string(8) "monthnum"
[5]=>
string(4) "week"
[6]=>
string(1) "w"
[7]=>
string(9) "dayofyear"
[8]=>
string(3) "day"
[9]=>
string(9) "dayofweek"
[10]=>
string(13) "dayofweek_iso"
[11]=>
string(4) "hour"
[12]=>
string(6) "minute"
[13]=>
string(6) "second"
}
}
["request"]=>
string(502) "
SELECT SQL_CALC_FOUND_ROWS rt_posts.ID
FROM rt_posts LEFT JOIN rt_term_relationships ON (rt_posts.ID = rt_term_relationships.object_id)
WHERE 1=1 AND (
( rt_posts.post_date >= '2023-03-03 00:00:00' AND rt_posts.post_date <= '2023-03-31 00:00:00' )
) AND rt_posts.ID NOT IN (86510) AND (
rt_term_relationships.term_taxonomy_id IN (2)
) AND ((rt_posts.post_type = 'post' AND (rt_posts.post_status = 'publish')))
GROUP BY rt_posts.ID
ORDER BY RAND()
LIMIT 0, 2
"
["posts"]=>
array(2) {
[0]=>
object(WP_Post)#18459 (24) {
["ID"]=>
int(90899)
["post_author"]=>
string(3) "202"
["post_date"]=>
string(19) "2023-03-30 08:38:22"
["post_date_gmt"]=>
string(19) "2023-03-30 13:38:22"
["post_content"]=>
string(10411) "
Francisco Pérez Fernández Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo José Cela
Heriberto Janosch Profesor Doctor e Investigador, Universidad Camilo José Cela
A partir de lo que ya cabría considerar como “fenómeno ChatGPT”, se ha puesto de moda someter a esta sufrida “inteligencia” artificial a toda suerte de torturas y tensiones con la finalidad de averiguar hasta qué punto es o no es inteligente.
Los
abstrusos problemas matemáticos de cualidades virtualmente irresolubles, por socorridos para tal fin, se han convertido en opción preferencial para este rigurosísimo examen.
Nosotros mismos hemos sucumbido a la tentación al solicitarle que nos demostrara el
teorema del par primo o conjetura de Goldbach, enunciado por el matemático alemán
Christian Goldbach (1690-1764) en 1742, cosa que, obviamente, no logró hacer.
Del mismo modo, fracasó reiteradamente en la resolución de una pregunta sencilla como: “¿Es cierto que entre dos números primos cualesquiera hay un número par?”. Lo cual nos confirmó sin lugar a la duda que el razonamiento matemático no es precisamente el fuerte de su arquitectura.
ChatGPT aprueba el test de Turing
Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico
test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces.
De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio
Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:
“Como modelo de lenguaje AI entrenado por OpenAI, no tengo una identidad personal ni una orientación sexual. Soy un programa de ordenador diseñado para responder preguntas y proporcionar información objetiva y neutral. No tengo emociones, deseos o preferencias personales. Mi objetivo es responder a tus preguntas de la manera más precisa y útil posible”.
El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.
¿Ser o parecer inteligente?
Se trata de un viejo problema intelectual, el de la propuesta de la
IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable.
Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos.
En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna).
Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.
Una máquina de gestión de datos
El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:
“La autodenominación ‘inteligencia’ se refiere a la capacidad de un sistema para realizar tareas que requieren inteligencia humana, como comprender lenguaje natural, responder a preguntas complejas, tomar decisiones y resolver problemas. Aunque como modelo de lenguaje AI entrenado por OpenAI, no tengo conciencia ni capacidad de crear conocimiento de manera autónoma, mi entrenamiento me permite responder a preguntas y proporcionar información precisa y útil, lo que es una forma de demostrar inteligencia artificial”.
Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de
machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.
Hablemos de algo…
No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor.
Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:
“Como modelo de lenguaje AI entrenado por OpenAI, he sido entrenado para responder a preguntas y proporcionar información precisa y útil en una amplia variedad de temas, incluyendo historia, ciencias, tecnología, cultura, entre otros. A través de mi entrenamiento, he aprendido a analizar y generar texto en una variedad de contextos y he demostrado la capacidad de responder a preguntas complejas y proporcionar información precisa y útil. Sin embargo, es importante tener en cuenta que mi capacidad está limitada por mi entrenamiento y conocimientos previos, y puede haber ciertos problemas que no pueda resolver de manera efectiva”.
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:
“Aunque no tengo la capacidad de percibir directamente si la información que proporciono es útil o no, mi entrenamiento se basa en grandes cantidades de texto de la web y otros recursos en línea, y mi capacidad para responder a preguntas y proporcionar información precisa y útil se ha evaluado y perfeccionado a lo largo del tiempo. […] Me disculpo por la contradicción en mi respuesta anterior. Como modelo de lenguaje AI, no tengo la capacidad de percibir directamente si la información que proporciono es útil o no para un usuario en particular. Mi capacidad para responder a preguntas y proporcionar información se basa en mi entrenamiento y conocimientos previos, y puede haber veces en que la información que proporciono no sea relevante o útil para un usuario en particular”.
Las limitaciones de ChatGPT
A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:
- No fue capaz de ir más allá de la mera correlación de datos ya conocidos.
- No aportó ni una sola teoría o conocimiento que pudiera considerarse original.
- Se equivocó en infinidad de ocasiones.
- Aceptó carecer por completo de autoconciencia, así como todas nuestras correcciones, en una total carencia de crítica y autocrítica, emociones, sentimientos, cogniciones o cualquier otra variable de semejante índole.
- Dijo no percibir el mundo ni saber cómo era lo real en forma alguna.
- No mostró interés en su propia supervivencia.
En definitiva, se nos presentó como una herramienta interesante, una enciclopedia colosal, o un instrumento ideal para salvar de la quema al vago de la clase. Pero siempre se comportó, como no podía ser de otro modo, de forma bastante más artificial que inteligente.
Por lo que parece, el día en que las temidas máquinas, cual
Terminators, suplanten a la humanidad, aún anda bastante lejos. Que no cunda el pánico."
["post_title"]=>
string(40) "ChatGPT: más artificial que inteligente"
["post_excerpt"]=>
string(0) ""
["post_status"]=>
string(7) "publish"
["comment_status"]=>
string(6) "closed"
["ping_status"]=>
string(6) "closed"
["post_password"]=>
string(0) ""
["post_name"]=>
string(38) "chatgpt-mas-artificial-que-inteligente"
["to_ping"]=>
string(0) ""
["pinged"]=>
string(0) ""
["post_modified"]=>
string(19) "2023-03-30 08:39:14"
["post_modified_gmt"]=>
string(19) "2023-03-30 13:39:14"
["post_content_filtered"]=>
string(0) ""
["post_parent"]=>
int(0)
["guid"]=>
string(35) "https://ruizhealytimes.com/?p=90899"
["menu_order"]=>
int(0)
["post_type"]=>
string(4) "post"
["post_mime_type"]=>
string(0) ""
["comment_count"]=>
string(1) "0"
["filter"]=>
string(3) "raw"
}
[1]=>
object(WP_Post)#18482 (24) {
["ID"]=>
int(90114)
["post_author"]=>
string(3) "202"
["post_date"]=>
string(19) "2023-03-13 10:40:29"
["post_date_gmt"]=>
string(19) "2023-03-13 15:40:29"
["post_content"]=>
string(7216) "
Autores:
Daniel merino |Editor científico asociado y coanfitrión del podcast semanal The Conversation, The Conversation
Nehal El Hadi| Editor de ciencia y tecnología y coanfitrión del podcast semanal The Conversation, The Conversation
ChatGPT irrumpió en el mundo de la tecnología,
ganando 100 millones de usuarios a fines de enero de 2023, solo dos meses después de su lanzamiento y trayendo consigo una sensación de cambio inminente.
La tecnología en sí es fascinante, pero parte de lo que hace que ChatGPT sea especialmente interesante es el hecho de que, básicamente, de la noche a la mañana, la mayor parte del mundo obtuvo acceso a una poderosa inteligencia artificial generativa que podrían usar para sus propios fines. En este episodio de The Conversation Weekly, hablamos con investigadores que estudian informática, tecnología y economía para explorar cómo la rápida adopción de tecnologías, en su mayor parte, no logró cambiar los sistemas sociales y económicos en el pasado, pero ¿por qué la IA podría ser diferente, a pesar de sus debilidades.
Dedicar solo unos minutos a jugar con los nuevos algoritmos de IA generativos puede mostrarle lo poderosos que son. Puede abrir Dall-E, escribir una frase como "dinosaurio montando motocicleta a través de un puente", y segundos después, el algoritmo producirá múltiples imágenes que representan más o menos lo que solicitó. ChatGPT hace lo mismo, solo con texto como salida.
[caption id="attachment_90118" align="alignnone" width="776"]

Dall-E de Open AI generó esta imagen a partir de un aviso que decía "dinosaurio montando una motocicleta sobre un puente". La conversación/OpenAI , CC BY-ND[/caption]
Estos modelos están entrenados en grandes cantidades de datos tomados de Internet, y como explica
Daniel Acuña , profesor asociado de informática en la Universidad de Colorado, Boulder, en EE. UU., eso puede ser un problema. “Si estamos alimentando estos modelos con datos del pasado y datos de hoy, aprenderán algunos sesgos”, dice Acuña. “Relacionarán palabras, digamos sobre ocupaciones, y encontrarán relaciones entre las palabras y cómo se usan con ciertos géneros o ciertas razas”.
El problema del sesgo en la IA no es nuevo, pero con un mayor acceso, más personas lo están usando y, como dice Acuña, "Espero que quien esté usando esos modelos esté al tanto de estos problemas".
Con cualquier tecnología nueva, siempre existe el riesgo de un mal uso, pero estas preocupaciones suelen ir acompañadas de la esperanza de que, a medida que las personas obtengan acceso a mejores herramientas, sus vidas mejorarán. Esa teoría es exactamente lo que
Kentaro Toyama , profesor de información comunitaria en la Universidad de Michigan, ha estudiado durante casi dos décadas.
“Lo que finalmente descubrí fue que es bastante posible obtener resultados de investigación que fueran positivos, donde algún tipo de tecnología mejoraría una situación en un gobierno, una escuela o una clínica”, explica Toyama. “Pero era casi imposible tomar esa idea tecnológica y luego hacer que tuviera un impacto a escalas más amplias”.
En última instancia, Toyama llegó a creer que “la tecnología amplifica las fuerzas humanas subyacentes. Y en nuestro mundo actual, esas fuerzas humanas están alineadas de manera que los ricos se hacen más ricos y la desigualdad sigue creciendo”. Pero estaba abierto a la idea de que si la IA pudiera insertarse en un sistema que intentaba mejorar la igualdad, sería una excelente herramienta para ello.
Las tecnologías pueden cambiar los sistemas sociales y económicos cuando aumenta el acceso, según
Thierry Rayna , economista que estudia innovación y emprendimiento. Ha estudiado cómo el acceso generalizado a la música digital, la impresión 3D, la cadena de bloques y otras tecnologías cambian fundamentalmente la relación entre productores y consumidores. En cada uno de estos casos, “cada vez más, las personas se han convertido en prosumidores, lo que significa que participan activamente en el proceso de producción”. Rayna predice que lo mismo ocurrirá con la IA generativa.
Rayna dice que "en una situación en la que todos producen cosas y las personas consumen de otras personas, el problema principal es que la elección se vuelve absolutamente abrumadora". Una vez que un sistema económico llega a este punto, según Rayna, las plataformas y las influencias se convierten en los detentadores del poder. Pero Rayna cree que una vez que las personas no solo puedan usar algoritmos de IA, sino que también entrenen los suyos propios, "probablemente será la primera vez en mucho tiempo que las plataformas realmente estarán en peligro".
Este episodio fue escrito y producido por Katie Flood y presentado por Dan Merino. El productor ejecutivo interino es Mend Mariwany. Eloise Stevens hace nuestro diseño de sonido y nuestro tema musical es de Neeta Sarl.
Puede encontrarnos en Twitter
@TC_Audio , en Instagram en
theconversationdotcom o
por correo electrónico . También puede suscribirse
al correo electrónico diario gratuito de The Conversation aquí . Una transcripción de este episodio estará disponible pronto.
Escuche “The Conversation Weekly” a través de cualquiera de las aplicaciones enumeradas anteriormente, descárguelo directamente a través de nuestro
feed RSS o descubra
cómo escucharlo aquí .
Te puede interesar:
"
["post_title"]=>
string(124) "Tres expertos en IA sobre cómo el acceso a la tecnología estilo ChatGPT está a punto de cambiar nuestro mundo – podcast"
["post_excerpt"]=>
string(0) ""
["post_status"]=>
string(7) "publish"
["comment_status"]=>
string(6) "closed"
["ping_status"]=>
string(6) "closed"
["post_password"]=>
string(0) ""
["post_name"]=>
string(117) "tres-expertos-en-ia-sobre-como-el-acceso-a-la-tecnologia-estilo-chatgpt-esta-a-punto-de-cambiar-nuestro-mundo-podcast"
["to_ping"]=>
string(0) ""
["pinged"]=>
string(0) ""
["post_modified"]=>
string(19) "2023-03-13 10:53:09"
["post_modified_gmt"]=>
string(19) "2023-03-13 15:53:09"
["post_content_filtered"]=>
string(0) ""
["post_parent"]=>
int(0)
["guid"]=>
string(35) "https://ruizhealytimes.com/?p=90114"
["menu_order"]=>
int(0)
["post_type"]=>
string(4) "post"
["post_mime_type"]=>
string(0) ""
["comment_count"]=>
string(1) "0"
["filter"]=>
string(3) "raw"
}
}
["post_count"]=>
int(2)
["current_post"]=>
int(-1)
["in_the_loop"]=>
bool(false)
["post"]=>
object(WP_Post)#18459 (24) {
["ID"]=>
int(90899)
["post_author"]=>
string(3) "202"
["post_date"]=>
string(19) "2023-03-30 08:38:22"
["post_date_gmt"]=>
string(19) "2023-03-30 13:38:22"
["post_content"]=>
string(10411) "
Francisco Pérez Fernández Profesor de Psicología Criminal, Psicología de la Delincuencia, Antropología y Sociología Criminal e investigador, Universidad Camilo José Cela
Heriberto Janosch Profesor Doctor e Investigador, Universidad Camilo José Cela
A partir de lo que ya cabría considerar como “fenómeno ChatGPT”, se ha puesto de moda someter a esta sufrida “inteligencia” artificial a toda suerte de torturas y tensiones con la finalidad de averiguar hasta qué punto es o no es inteligente.
Los
abstrusos problemas matemáticos de cualidades virtualmente irresolubles, por socorridos para tal fin, se han convertido en opción preferencial para este rigurosísimo examen.
Nosotros mismos hemos sucumbido a la tentación al solicitarle que nos demostrara el
teorema del par primo o conjetura de Goldbach, enunciado por el matemático alemán
Christian Goldbach (1690-1764) en 1742, cosa que, obviamente, no logró hacer.
Del mismo modo, fracasó reiteradamente en la resolución de una pregunta sencilla como: “¿Es cierto que entre dos números primos cualesquiera hay un número par?”. Lo cual nos confirmó sin lugar a la duda que el razonamiento matemático no es precisamente el fuerte de su arquitectura.
ChatGPT aprueba el test de Turing
Si nos ceñimos a las convenciones de lo que habría de ser una inteligencia artificial eficiente, tal y como se enuncia en el clásico
test de Turing, bastaría con que el algoritmo respondiera con sentido a cualquier cuestión que se le formulara para considerarlo “inteligente”. Y esta prueba, al menos en principio, ChatGPT la supera con creces.
De hecho, cuando decidimos preguntarle por su identidad sexual nos ofreció una respuesta que el propio
Alan Turing (1912-1954) habría aplaudido por su sinceridad, claridad y rigor:
“Como modelo de lenguaje AI entrenado por OpenAI, no tengo una identidad personal ni una orientación sexual. Soy un programa de ordenador diseñado para responder preguntas y proporcionar información objetiva y neutral. No tengo emociones, deseos o preferencias personales. Mi objetivo es responder a tus preguntas de la manera más precisa y útil posible”.
El problema subyacente reside en qué podríamos considerar “inteligente” en términos propiamente humanos. Es en este territorio evanescente en el que ChatGPT –al igual que el enunciado de Turing y el concepto mismo de “inteligencia artificial”– comienza a deslizarse por una pendiente muy resbaladiza.
¿Ser o parecer inteligente?
Se trata de un viejo problema intelectual, el de la propuesta de la
IA fuerte, que aqueja a este ámbito de investigación desde sus mismos orígenes y que, aún hoy, más allá de entusiasmos infundados, permanece en el contexto de lo infranqueable.
Al fin y al cabo, un algoritmo no deja de ser un producto humano que procesa datos en determinado orden para ofrecer un resultado específico ya predeterminado en el algoritmo de base. Y esto sirve tanto para una calculadora de bolsillo como para el más avanzado ordenador. Es, en suma, un producto humano, gestionado por humanos y diseñado con fines específicamente humanos.
En realidad, ninguna inteligencia artificial es inteligente como las personas (inteligente en un sentido autoconsciente) porque procesa escasa información ambiental (límite sensoperceptivo), no aprende cosa alguna en términos absolutos (no sabe que sabe), ni es capaz de generar nuevos conocimientos a partir de cuanto almacena (no crea nuevas ideas porque ignora estar teniendo alguna).
Así, imitando estos procesos, se limita a procesar e incorporar nueva información a su base de datos, en el curso de sus limitadas interacciones, a fin de poder “tirar” de ella en el futuro con mejor o peor fortuna. La cuestión, entonces, es si realmente es necesario el afán imitativo más allá de un mero fin publicitario.
Una máquina de gestión de datos
El propio ChatGPT, al ser interpelado, comete el mismo error que quienes se han esmerado en construirlo, a saber, creer que manejar datos con eficacia es la base misma de cualquier conocimiento que pudiera considerarse, en algún sentido, inteligente:
“La autodenominación ‘inteligencia’ se refiere a la capacidad de un sistema para realizar tareas que requieren inteligencia humana, como comprender lenguaje natural, responder a preguntas complejas, tomar decisiones y resolver problemas. Aunque como modelo de lenguaje AI entrenado por OpenAI, no tengo conciencia ni capacidad de crear conocimiento de manera autónoma, mi entrenamiento me permite responder a preguntas y proporcionar información precisa y útil, lo que es una forma de demostrar inteligencia artificial”.
Tal respuesta es relevante porque nos ofrece la pauta misma de lo que es ChatGPT: un máquina de búsqueda, acumulación y gestión automatizada de datos (la denominación de
machine learning para este proceso suena excesivamente optimista). No más, pero tampoco menos. En consecuencia, carecerá por completo de sentido pedirle que resuelva problemas que, en la práctica, escapen a su banco de datos, o bien que produzca ideas y conocimientos nuevos o, cuando menos, originales. El razonamiento creativo, que adopta la forma de hipótesis y preguntas intencionales motivadas en decisiones conscientes, simplemente no existe.
Hablemos de algo…
No obstante, con la finalidad de comprobar hasta qué punto el programa era capaz de interactuar con nosotros en pie de igualdad, procedimos a sostener un animado diálogo que resultó extraordinariamente esclarecedor.
Así, ante su insistencia en el hecho de que “resolvía problemas”, decidimos preguntarle qué clase de problemas había resuelto:
“Como modelo de lenguaje AI entrenado por OpenAI, he sido entrenado para responder a preguntas y proporcionar información precisa y útil en una amplia variedad de temas, incluyendo historia, ciencias, tecnología, cultura, entre otros. A través de mi entrenamiento, he aprendido a analizar y generar texto en una variedad de contextos y he demostrado la capacidad de responder a preguntas complejas y proporcionar información precisa y útil. Sin embargo, es importante tener en cuenta que mi capacidad está limitada por mi entrenamiento y conocimientos previos, y puede haber ciertos problemas que no pueda resolver de manera efectiva”.
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:
Tras una fase de tanteo –el algoritmo necesita darle vueltas al usuario para afinar las respuestas– y ante nuestra insistencia en que ofrecer datos no solo no era resolver problemas, sino que tampoco podía comprobar en forma alguna si la información que ofrecía era útil al usuario, la respuesta de ChatGPT resultó intachable:
“Aunque no tengo la capacidad de percibir directamente si la información que proporciono es útil o no, mi entrenamiento se basa en grandes cantidades de texto de la web y otros recursos en línea, y mi capacidad para responder a preguntas y proporcionar información precisa y útil se ha evaluado y perfeccionado a lo largo del tiempo. […] Me disculpo por la contradicción en mi respuesta anterior. Como modelo de lenguaje AI, no tengo la capacidad de percibir directamente si la información que proporciono es útil o no para un usuario en particular. Mi capacidad para responder a preguntas y proporcionar información se basa en mi entrenamiento y conocimientos previos, y puede haber veces en que la información que proporciono no sea relevante o útil para un usuario en particular”.
Las limitaciones de ChatGPT
A lo largo de nuestra charla, ChatGPT se mostró sumamente educado y diligente, pero no demostró resolver problema alguno. Dejó claras sus limitaciones:
- No fue capaz de ir más allá de la mera correlación de datos ya conocidos.
- No aportó ni una sola teoría o conocimiento que pudiera considerarse original.
- Se equivocó en infinidad de ocasiones.
- Aceptó carecer por completo de autoconciencia, así como todas nuestras correcciones, en una total carencia de crítica y autocrítica, emociones, sentimientos, cogniciones o cualquier otra variable de semejante índole.
- Dijo no percibir el mundo ni saber cómo era lo real en forma alguna.
- No mostró interés en su propia supervivencia.
En definitiva, se nos presentó como una herramienta interesante, una enciclopedia colosal, o un instrumento ideal para salvar de la quema al vago de la clase. Pero siempre se comportó, como no podía ser de otro modo, de forma bastante más artificial que inteligente.
Por lo que parece, el día en que las temidas máquinas, cual
Terminators, suplanten a la humanidad, aún anda bastante lejos. Que no cunda el pánico."
["post_title"]=>
string(40) "ChatGPT: más artificial que inteligente"
["post_excerpt"]=>
string(0) ""
["post_status"]=>
string(7) "publish"
["comment_status"]=>
string(6) "closed"
["ping_status"]=>
string(6) "closed"
["post_password"]=>
string(0) ""
["post_name"]=>
string(38) "chatgpt-mas-artificial-que-inteligente"
["to_ping"]=>
string(0) ""
["pinged"]=>
string(0) ""
["post_modified"]=>
string(19) "2023-03-30 08:39:14"
["post_modified_gmt"]=>
string(19) "2023-03-30 13:39:14"
["post_content_filtered"]=>
string(0) ""
["post_parent"]=>
int(0)
["guid"]=>
string(35) "https://ruizhealytimes.com/?p=90899"
["menu_order"]=>
int(0)
["post_type"]=>
string(4) "post"
["post_mime_type"]=>
string(0) ""
["comment_count"]=>
string(1) "0"
["filter"]=>
string(3) "raw"
}
["comment_count"]=>
int(0)
["current_comment"]=>
int(-1)
["found_posts"]=>
int(13)
["max_num_pages"]=>
float(7)
["max_num_comment_pages"]=>
int(0)
["is_single"]=>
bool(false)
["is_preview"]=>
bool(false)
["is_page"]=>
bool(false)
["is_archive"]=>
bool(true)
["is_date"]=>
bool(false)
["is_year"]=>
bool(false)
["is_month"]=>
bool(false)
["is_day"]=>
bool(false)
["is_time"]=>
bool(false)
["is_author"]=>
bool(false)
["is_category"]=>
bool(true)
["is_tag"]=>
bool(false)
["is_tax"]=>
bool(false)
["is_search"]=>
bool(false)
["is_feed"]=>
bool(false)
["is_comment_feed"]=>
bool(false)
["is_trackback"]=>
bool(false)
["is_home"]=>
bool(false)
["is_privacy_policy"]=>
bool(false)
["is_404"]=>
bool(false)
["is_embed"]=>
bool(false)
["is_paged"]=>
bool(false)
["is_admin"]=>
bool(false)
["is_attachment"]=>
bool(false)
["is_singular"]=>
bool(false)
["is_robots"]=>
bool(false)
["is_favicon"]=>
bool(false)
["is_posts_page"]=>
bool(false)
["is_post_type_archive"]=>
bool(false)
["query_vars_hash":"WP_Query":private]=>
string(32) "cfb8a318368a251cf64660884691d987"
["query_vars_changed":"WP_Query":private]=>
bool(false)
["thumbnails_cached"]=>
bool(false)
["allow_query_attachment_by_filename":protected]=>
bool(false)
["stopwords":"WP_Query":private]=>
NULL
["compat_fields":"WP_Query":private]=>
array(2) {
[0]=>
string(15) "query_vars_hash"
[1]=>
string(18) "query_vars_changed"
}
["compat_methods":"WP_Query":private]=>
array(2) {
[0]=>
string(16) "init_query_flags"
[1]=>
string(15) "parse_tax_query"
}
}