M

#2 En Francia se separan presidenciales que son fijas y parlamentarias. En 1997 hubo un presidente de derechas, un parlamento de izquierda y un primer ministro de izquierda. Chirac y Jospin
Macron sigue de presidente hasta 2026. Otra cosa será con que primer ministro. 

E

#12 No sabía que no podía mover las presidenciales, pero al final con las legislativas va a pasar lo mismo, porque tiene que dar la cara con su partido.

Guanarteme

#12 Eso ya hace muuuuchos años que se cambió para evitar lo que los franceses llamaban "les cohabitations", es decir, el presidente (que recordemos que Francia es una república presidencialista, un caso extraño en Europa) fuera de derechas y la asamblea de izquierdas o al revés, como le pasó a Mitterrand.

Ahora las elecciones legislativas son justo después de las presidenciales.

M

#49 quinta republica que fue provisional. Provisional y dura 70 años. Se le dio mayor poder al presidente en medio de la grave crisis argelina, anuncios de golpe de Estado militar.... 

Bernard

#12 Lo que se conoce como "cohabitacion". Ha pasado 3 veces en la 5° Republica si no me equivoco.

M

#66 Si pero nunca tan extrema. Macron y Marine Le Pen compartiendo poder.

yemeth

#5 De hecho Le Pen se ha opuesto abiertamente a la implicación francesa y hace poco acusaba a Macron de querer meterles en una guerra con Rusia. A los franceses no sé, a mí por muy rojo que sea me parece mejor que ahí está una ultra que no quiera una nueva guerra mundial.

RoterHahn

#23
Si fuese franchute de izquierdas, al fascismo nunca lo votaría por principios, y al nuevo Bonaparte que quiere guerra tampoco.
Es jodido, muy jodido. Lo mejor sería mandarlos en un saco juntos al fondo del Sena.

Penrose

#37 La mitad de vosotros votaría a Le Pen si tuviera que ver lo que hay en Francia todos los días. Igual que votariais a Bukele.

t

#67 Lo que comentas sería lo lógico entre personas normales.
Pero los izquierdistas españoles seguirán votando a los suyos, vean lo que vean, pase lo que pase.

ansiet

#85 No te voto negativo aunque la verdad lo mereces pero esta noche estoy de buen talante. Dicho esto dime... los votantes de derechas ¿No siguen votando a sus partidos hagan lo que hagan?.
Es una condicion esta de los "izquierdistas" que llamas tú o acaso no siguen los "derechistas" votando a un ppartido corrupto, manipulador y ladrón.
Pregunto

#85 Habló de putas la tacones, votarás a pagascal aunque se folle a tus hijos. lol

S

#67 No. Obvio. Esos son liberales como tú

Penrose

#223 Liberal de toda la vida, claro.

tul

#23 cuanto crees que va a durar en esas posiciones la lepen? si alcanza el poder en unas elecciones generales le doy menos de 100 dias para completar un giro de 180º

yemeth

#65 Bueno, en este caso es a Macron al que se le ha ido la pinza y no hace más que hablar de meter tropas en Ucrania, atacar Rusia y liar a todos con el tema. Quiero decir, que él es lo excepcional en este caso.

Por otro lado es cierto que no se le irá mágicamente el escozor que produce que Rusia les haya dado la patada en el Sahel, que es lo que hay detrás de todo esto.

tul

#80 a macron no se la ha ido ninguna pinza, solo hace lo que le ordenan desde el poder economico y lepen hara exactamente lo mismo

Gerome

#23 Meloni, la premier italiana, también estaba en contra de apoyar la guerra en Ucrania. Una vez en el poder tardó cerro coma en ir a ver a Zelensky y enviarles ayuda.

Los fascistas son asín.

aironman

#21 Lo que yo veo es que no está teniendo un gran impacto, es decir, no se está despidiendo de manera masiva a ingenieros por culpa de la IA. Están despidiendo por otros momentos pero no se debe a la eficacia en la IA, de hecho, yo estoy notando que hay una gran reticencia a implantar la IA en producción, y es normal porque para empezar es muy dificil y es muy costosa. Por ahora, he visto al BBVA, a seguros Ocaso, al Santander, a Ericsson, por decirte unos cuantos que conozco de cerca que están explorando la tecnología, vamos, que han conseguido licencias enterprise de openAI y están viendo como integrarlos en sus modelos de negocio.

Me dicen que cuando se enteran que tendrían que integrar sus datos, que ya tienen en otras nubes de otros proveedores con los sistemas internos de openAI o con Azure, no les gusta demasiado, porque ya de por sí no están muy cómodos con haber perdido el control de los que les hace funcionar. Los datos de los clientes. Los que usan Azure de manera masiva ponen menos problemas, pero otro proveedor más,...

Una primera aproximación es usar los datos que tienen en el JIRA para tratar de crear un chatbot que ayude en los onboarding, pero como esos datos tienen escasa calidad, se encuentran que hay mucha información inconexa. Culpa del modelo?, yo diría que no, es culpa del estado de los datos, que es un berengenal. Cada tribu ha introducido su manera de hacer no se que historia, algunos usan una versión de un software, otros usan otras versiones, algunos están mejor escritos que otros, por lo que, esos chats generan unos resúmenes muy malos, y poco fiables.

Otros, han usado gpt con los datos de los pacientes y del vademecum para tratar de crear una herramienta que ayude a los médicos. Como la han hecho de espaldas a los médicos, en cuanto la usan empiezan a sacarle problemas y dejan de usarla. Es lo que ocurre cuando haces algo a espaldas del usuario.

Otros han hecho soluciones ad hoc con datos de pacientes con algún tipo de cáncer, en plan reconocimiento de imágenes para dar una opinión rápida al médico especialista si ese bultito es maligno o benigno. Esto lo hacen hospitales privados que han encargado este tipo de software. Por lo que me dicen funciona bastante bien, pero como son empresas pequeñitas, están muy limitadas por el hardware del que disponen. También tienen un software que directamente no escala, por lo que tienen ese problema.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

T

#4 ¿Inteligentes? Bueno, cualquier ordenador de sobremesa es más inteligente que un humano desde hace mucho tiempo, depende lo que compares y lo que llames "inteligencia".

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

Fernando_x

#6 Yo llamo inteligencia la capacidad de resolver problemas de todo tipo, basándose en conocimientos previos y capacidad lógica. Mas o menos, ya nos ha adelantado a muchos.

Pero eso sí, solo tiene inteligencia. No tiene creatividad. Si le pides una historia completamente nueva que sea ingeniosa o una obra pictórica que sea realmente novedosa y original, fracasa. Incluso si le pides que invente un chiste nuevo.

Tampoco tiene conciencia, por si no quedaba claro. Es tan solo inteligencia.

Ghandilocuente

#14 Si hablamos de inteligencia, en medio de una comparacion con la humana, inteligencia es la capacidad de comprender conceptos abstractos, y si quieres luego.... la capacidad de resolver problemas con soluciones basadas en esa compresnion/entendimiento.

Las IAs a dia de hoy no entienden nada
Words are not enough: Why Artificial Intelligence cannot achieve understanding
https://www.abc.net.au/religion/why-artificial-intelligence-cannot-achieve-understanding/102288234

Here’s why AI like ChatGPT probably won’t reach humanlike understanding
https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence

Why large language models aren’t headed toward humanlike understanding
https://www.sciencenews.org/article/ai-large-language-model-understanding

Algo que puede resolver problemas, sin comprenderlos, no es inteligente... sera muchas otras cosas, pro no inteligente.

Ghandilocuente

#1 Lo que es absurdo es pensar que las cosas pueden seguir progresando infinitamente de forma ininterumpida.
Esta ola de progreso en el campo de la IA ha sido espectacular, nadie lo niega, pero va a hacer pico (hay quien opina que ya lo ha hecho), y habra que esperar a la siguiente ola, quizas en unos años, quizas decadas, para mas avances.

rojo_separatista

#3, con que este ritmo de progresión dure 5 años, estamos hablando de IAs más inteligentes que cualquier ser humano en todos los sentidos. Ni tu ni yo sabemos dónde va a estar el pico, lo que sí sabemos es que no podemos quedarnos con la foto del momento ya que esto evoluciona muy rápidamente.

T

#4 ¿Inteligentes? Bueno, cualquier ordenador de sobremesa es más inteligente que un humano desde hace mucho tiempo, depende lo que compares y lo que llames "inteligencia".

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

Fernando_x

#6 Yo llamo inteligencia la capacidad de resolver problemas de todo tipo, basándose en conocimientos previos y capacidad lógica. Mas o menos, ya nos ha adelantado a muchos.

Pero eso sí, solo tiene inteligencia. No tiene creatividad. Si le pides una historia completamente nueva que sea ingeniosa o una obra pictórica que sea realmente novedosa y original, fracasa. Incluso si le pides que invente un chiste nuevo.

Tampoco tiene conciencia, por si no quedaba claro. Es tan solo inteligencia.

Ghandilocuente

#14 Si hablamos de inteligencia, en medio de una comparacion con la humana, inteligencia es la capacidad de comprender conceptos abstractos, y si quieres luego.... la capacidad de resolver problemas con soluciones basadas en esa compresnion/entendimiento.

Las IAs a dia de hoy no entienden nada
Words are not enough: Why Artificial Intelligence cannot achieve understanding
https://www.abc.net.au/religion/why-artificial-intelligence-cannot-achieve-understanding/102288234

Here’s why AI like ChatGPT probably won’t reach humanlike understanding
https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence

Why large language models aren’t headed toward humanlike understanding
https://www.sciencenews.org/article/ai-large-language-model-understanding

Algo que puede resolver problemas, sin comprenderlos, no es inteligente... sera muchas otras cosas, pro no inteligente.

Ghandilocuente

#4 Mientras no resuelvan el tema de las alucinaciones yo me mantendre esceptico
Luego esta el tema de los costos, que no son para nada despreciables.
Y para que en 5 años las IAs sean mas inteligentes que cualquier ser humano, primero tendrian que ser inteligentes como un humano., cosa que no son.

Mucho cuidado con el hype...

rojo_separatista

#8, es bueno ser escépticos pero me preocupa que como sociedad no estemos preparados para una tecnología tan importante. El tema de las alucinaciones se ha venido reduciendo en cada iteración, GPT-4 alucina menos que GPT-3 y este a su vez menos que los anteriores. A eso me refiero cuando digo que no debemos quedarnos en la foto del momento.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

Fernando_x

#8 Las alucinaciones han desaparecido prácticamente del todo en chatGPT4. Ya no se inventa cosas. Si no te puede dar el dato, te dice que no tiene acceso o que no lo sabe. Es muy raro que se lo invente o alucine.

rojo_separatista

#15, tampoco es verdad, si le aprietas sigue alucinando bastante, lo que si es verdad es que se han reducido muchísimo. Me gustaría saber en qué se basa esta gente para decir que ya hemos llegado al pico. Siempre me acuerdo de un artículo de 2017 que decía que el Deep Learning ya no daba más de sí. lol

DaiTakara

#3 O no.
Pero para qué discutir. Esto es como aquellos que en el 99 decían "¡¡yo nunca tendré un móvil!!"

Ghandilocuente

#5 Esro es como aquellos que a principio de los 90 decian "en el año 2000 iremos todos en coches voladores"

Disiento

#7 y ya nos hemos pasado 24 pueblos.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#34, creo que me he explicado mal. Claro que conozco que existen benchmarks para evaluar el rendimiento de los modelos de lenguaje. De hecho algunos de los que te he pasado antes ya evalúan esto y en algunos de los que tú comentas ahora, GPT4 consigue una precisión cercana al 100%, por eso no entiendo por qué los referencias como prueba de que el problema del razonamiento y el sentido común es insalvable.

En realidad me refería a si conoces algun test de evaluación en el que los LLM lleven varios años estancados sin signos de mejoría para decir que no podrán seguir mejorando en capacidades como el razonamiento y el sentido común será imposble de resolver con este tipo de arquitecturas.

aironman

#c-35" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/35">#35 bueno, honestamente no creo haber dicho que el problema sea insalvable, si no que con la arquitectura de transformadores actuales no parece que llegamos a este ritmo a igualar a un ser humano.

Según preguntas a gpt4-o, esto responde:

As of 2024, no large language model (LLM), including the most advanced models like GPT-4, has consistently demonstrated superior logical-mathematical reasoning and common sense compared to a human. Here are some key points and comparisons:

### Logical-Mathematical Reasoning

1. **HumanEval Benchmark**:
- GPT-4 shows significant improvement in solving programming tasks compared to its predecessors, achieving performance close to human levels on certain coding benchmarks. However, it still makes mistakes that an experienced programmer might not, indicating it hasn't surpassed human capability overall [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/) .

2. **MATH Dataset**:
- GPT-4 has achieved better results on mathematical problems, yet it still struggles with complex or novel problems that require deeper understanding or innovative solutions [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#37, en ningún momento he dicho que los modelos actuales tengan un desempeño superior al de los humanos. Lo que digo, siento volver a insistir en esto, es que no podemos quedarnos en la foto del momento, que esta tecnología está mejorando mucho. GPT-5 va a salir a finales de año y viendo la tendencia no descarto que supere al desempeño humano. En lo que tenemos que ponernos deacuerdo es que esto hay que evaluarlo a base de benchmark, no en base a opiniones.

aironman

#38 sin duda, los benchmarks son importantes. Yo desde el principio te dije que mi opinión se basa en la experiencia de usarlos durante el último año, todos los días, y lo que me queda, porque pienso seguir.

Ahora, también pienso que los benchmarks, si no los puedo reproducir en mi máquina, personalmente los tomo con ciertas reservas. No digo que sean incorrectos, pero soy de los que quieren comprobar terceras afirmaciones.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#34, creo que me he explicado mal. Claro que conozco que existen benchmarks para evaluar el rendimiento de los modelos de lenguaje. De hecho algunos de los que te he pasado antes ya evalúan esto y en algunos de los que tú comentas ahora, GPT4 consigue una precisión cercana al 100%, por eso no entiendo por qué los referencias como prueba de que el problema del razonamiento y el sentido común es insalvable.

En realidad me refería a si conoces algun test de evaluación en el que los LLM lleven varios años estancados sin signos de mejoría para decir que no podrán seguir mejorando en capacidades como el razonamiento y el sentido común será imposble de resolver con este tipo de arquitecturas.

aironman

#c-35" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/35">#35 bueno, honestamente no creo haber dicho que el problema sea insalvable, si no que con la arquitectura de transformadores actuales no parece que llegamos a este ritmo a igualar a un ser humano.

Según preguntas a gpt4-o, esto responde:

As of 2024, no large language model (LLM), including the most advanced models like GPT-4, has consistently demonstrated superior logical-mathematical reasoning and common sense compared to a human. Here are some key points and comparisons:

### Logical-Mathematical Reasoning

1. **HumanEval Benchmark**:
- GPT-4 shows significant improvement in solving programming tasks compared to its predecessors, achieving performance close to human levels on certain coding benchmarks. However, it still makes mistakes that an experienced programmer might not, indicating it hasn't surpassed human capability overall [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/) .

2. **MATH Dataset**:
- GPT-4 has achieved better results on mathematical problems, yet it still struggles with complex or novel problems that require deeper understanding or innovative solutions [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

mosayco

#5 grupo musical? Ni cantan ni tocan instrumentos, son un producto mediocre de autotune y playback, cabareteras pal Imserso de Benidorm, esto siendo amable, porque no le llegan a "Ojos de España" ni a la suela del stiletto.

frg

#7 Comparado con Mario Vaquerizo sí lol lol

m

#7 mediocre y maltratador, buen publicista, eso si

P

#7 El pintor más sobrevalorado de la historia, sin entrar en su vida personal.

Charles_Dexter_Ward

#3 Comparar a Dalí y Ripollés con Mario Vaquerizo y además de mediocres llamarlos "alternativos" es de lo más cuñao que he leído en MNM en los últimos años.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

aironman

#48 mira, siento que hayas creído en algún momento que yo quería ganarte en algún tipo de argumentación. Eso son películas que te montas en la cabeza.

No creo haberte acusado de nada, o por lo menos, esa no era mi intención.

Por mi parte, me conformo que sepas quien fue Chamberlain en su momento de la misma manera que me has enseñado que las enseñanzas de Chamberlain siguen vigentes pues este señor al que tienes en tan alta estima básicamente sigue su estela.

No asumas nada, me tomo muy en serio mi privacidad como para ahora tener que preocuparme de un posible acosador de redes, esa es la razón por la que no comparta nada más contigo.

aironman

#46 bueno, al menos te parece muy triste el destino de los ucranianos.

No, no he seguido leyendo más a este señor, para otro día. Su real politik de sacrificar a unos pocos por el bien de muchos, porque hay un matón muy matón, me recuerda mucho a otro que en su momento también sabía mucho de realpolitik de su época, tanto, que llegó a primer ministro del imperio británico. Chamberlain.

Otra, me doy cuenta que no quieres debatir, quieres ganar, demostrar algo.

Yo no siento que tenga que demostrarte nada ni quiero ganar debates, por lo que, gracias, pero hasta aquí.

G

#47 Pero vamos a ver, si yo he sido el que he ido contestando a tu tono y escaladas, que parece que no recuerdas cómo has empezado la conversación. 
 
Yo he contestado a cada una de tus acusaciones, pero tu no te dignas ni a contarme que subreddits visitas, que por lo que asumo serán los más rancios; automáticamente simplificas y tildas de proputin a una eminencia geopolitica; y te desvías completamente el tema israelí cuando asumo que no tienes ningún argumento más. Cómo quieres debatir así? Este ataque de indignación sólo me confirma que no hay nada detrás. 
 
Y oye, que si tu crees que la solución es poner ejércitos de la otan contra Rusia dilo, Churchill. Pero afirmalo en voz alta y sin miedo, no me tienes que demostrar más. 

aironman

#48 mira, siento que hayas creído en algún momento que yo quería ganarte en algún tipo de argumentación. Eso son películas que te montas en la cabeza.

No creo haberte acusado de nada, o por lo menos, esa no era mi intención.

Por mi parte, me conformo que sepas quien fue Chamberlain en su momento de la misma manera que me has enseñado que las enseñanzas de Chamberlain siguen vigentes pues este señor al que tienes en tan alta estima básicamente sigue su estela.

No asumas nada, me tomo muy en serio mi privacidad como para ahora tener que preocuparme de un posible acosador de redes, esa es la razón por la que no comparta nada más contigo.

aironman

#42 "La única forma sensata de salir de la crisis, según él, es tener en cuenta sobriamente los intereses de seguridad de Rusia, como los de cualquier otra potencia. Ucrania, dijo, debe aceptar el papel de amortiguador o puente que le otorga su situación geo estratégica. Todo lo demás, dijo, es abstracto y carece de sentido en términos de Realpolitik."

Es decir, los intereses de libertad y prosperidad económica están supeditados a las necesidades de la oligarquía Rusa, en plata, que le den por saco a los Ucranianos. Pues menos mal que es una eminencia de las ciencias políticas reconocido por todo el mundo. Entiendo que te guste escucharle si eres claramente pro oligarquía Putin.
Yo, cada vez que pienso en Putin, pienso en la cantidad de gente que ha muerto asesinada por los servicios de inteligencia Rusa y eso son un montón de banderas rojas.

Opositores y Críticos Asesinados o Muertos en Circunstancias Sospechosas
Anna Politkóvskaya (2006):

Profesión: Periodista y activista de derechos humanos.
Circunstancias: Asesinada en su apartamento en Moscú. Politkóvskaya era conocida por sus reportajes críticos sobre la guerra en Chechenia y sobre Vladimir Putin.
Alexander Litvinenko (2006):

Profesión: Ex agente del FSB (servicio de seguridad ruso) y disidente.
Circunstancias: Envenenado con polonio-210 en Londres. Litvinenko había acusado al gobierno ruso de varios crímenes, incluyendo la orquestación de atentados en Rusia para justificar la guerra en Chechenia.
Boris Nemtsov (2015):

Profesión: Político de la oposición y ex viceprimer ministro.
Circunstancias: Asesinado a tiros cerca del Kremlin en Moscú. Nemtsov era un crítico abierto de Putin y estaba trabajando en un informe sobre la participación rusa en el conflicto en Ucrania.
Natalia Estemirova (2009):

Profesión: Activista de derechos humanos.
Circunstancias: Secuestrada y asesinada en Chechenia. Estemirova investigaba abusos de derechos humanos en Chechenia y trabajaba para la organización Memorial.
Sergei Magnitsky (2009):

Profesión: Abogado y auditor.
Circunstancias: Murió en prisión bajo condiciones sospechosas después de denunciar una gran red de corrupción que involucraba a funcionarios rusos.
Stanislav Markelov y Anastasia Baburova (2009):

Profesión: Abogado de derechos humanos y periodista.
Circunstancias: Asesinados a tiros en Moscú. Markelov era conocido por representar a víctimas de abusos de derechos humanos en Chechenia.
Yuri Shchekochikhin (2003):

Profesión: Periodista y político.
Circunstancias: Murió en circunstancias sospechosas, posiblemente envenenado. Investigaba corrupción y crimen organizado en Rusia.
Boris Berezovsky (2013):

Profesión: Empresario y ex oligarca.
Circunstancias: Encontrado muerto en su casa en el Reino Unido. Aunque su muerte fue oficialmente declarada como suicidio, muchos la consideran sospechosa debido a su abierta oposición a Putin.
Paul Klebnikov (2004):

Profesión: Editor de Forbes Rusia.
Circunstancias: Asesinado a tiros en Moscú. Klebnikov había investigado la corrupción en Rusia y las conexiones de oligarcas con el gobierno.
Valery Panyushkin (2006):

Profesión: Periodista.
Circunstancias: Encontrado muerto en su apartamento en Moscú en circunstancias sospechosas.
Sergei Yushenkov (2003):

Profesión: Político liberal.
Circunstancias: Asesinado a tiros en Moscú. Yushenkov estaba investigando los atentados con bomba en apartamentos rusos de 1999.
Natalya Gorbanevskaya (2013):

Profesión: Poeta, disidente soviética y activista de derechos humanos.
Circunstancias: Murió en París en circunstancias que algunos consideran sospechosas, aunque oficialmente murió de causas naturales.
Casos de Envenenamiento y Otros Ataques
Vladimir Kara-Murza (2015 y 2017):

Profesión: Activista político.
Circunstancias: Sobrevivió a dos intentos de envenenamiento que lo dejaron en coma. Es un crítico vocal del gobierno de Putin.
Alexei Navalny (2020):

Profesión: Político de la oposición y activista anticorrupción.
Circunstancias: Envenenado con un agente neurotóxico Novichok. Sobrevivió después de recibir tratamiento en Alemania y sigue siendo una figura prominente en la oposición rusa.
Pyotr Verzilov (2018):

Profesión: Activista y miembro de Pussy Riot.
Circunstancias: Envenenado y hospitalizado en estado grave, sobrevivió después de recibir tratamiento en Berlín.

G

#45 Vamos a ver chico, si vas a seguir siendo tan superficial cómo un charco poco vamos a hacer ya. No tildes de pro putin a un tío que nos da mil vueltas a todos en conocimiento de relaciones internacionales. 
 
Yo tampoco soy pro-putin, tranquilo. Sólo defiendo lo mismo que este señor: Si no estamos dispuestos a poner nuestros soldados y pegarnos personalmente con Rusia, que coño estamos haciendo? 
 
En eso consiste la realpolitik que defiende este señor y que yo suscribo también. Obviamente, muy triste lo de esos rusos y lo de los ucranianos, pero cual es la alternativa si no es negociar? 
 
Viendo también que has dejado de lado el debate israelí, asumo que me das la razón en todo. Al menos, no sabes cómo rebatirlo. 

aironman

#46 bueno, al menos te parece muy triste el destino de los ucranianos.

No, no he seguido leyendo más a este señor, para otro día. Su real politik de sacrificar a unos pocos por el bien de muchos, porque hay un matón muy matón, me recuerda mucho a otro que en su momento también sabía mucho de realpolitik de su época, tanto, que llegó a primer ministro del imperio británico. Chamberlain.

Otra, me doy cuenta que no quieres debatir, quieres ganar, demostrar algo.

Yo no siento que tenga que demostrarte nada ni quiero ganar debates, por lo que, gracias, pero hasta aquí.

G

#47 Pero vamos a ver, si yo he sido el que he ido contestando a tu tono y escaladas, que parece que no recuerdas cómo has empezado la conversación. 
 
Yo he contestado a cada una de tus acusaciones, pero tu no te dignas ni a contarme que subreddits visitas, que por lo que asumo serán los más rancios; automáticamente simplificas y tildas de proputin a una eminencia geopolitica; y te desvías completamente el tema israelí cuando asumo que no tienes ningún argumento más. Cómo quieres debatir así? Este ataque de indignación sólo me confirma que no hay nada detrás. 
 
Y oye, que si tu crees que la solución es poner ejércitos de la otan contra Rusia dilo, Churchill. Pero afirmalo en voz alta y sin miedo, no me tienes que demostrar más. 

aironman

#48 mira, siento que hayas creído en algún momento que yo quería ganarte en algún tipo de argumentación. Eso son películas que te montas en la cabeza.

No creo haberte acusado de nada, o por lo menos, esa no era mi intención.

Por mi parte, me conformo que sepas quien fue Chamberlain en su momento de la misma manera que me has enseñado que las enseñanzas de Chamberlain siguen vigentes pues este señor al que tienes en tan alta estima básicamente sigue su estela.

No asumas nada, me tomo muy en serio mi privacidad como para ahora tener que preocuparme de un posible acosador de redes, esa es la razón por la que no comparta nada más contigo.

aironman

Una gran cantidad de meneantes ya saben donde ir, no? Digo yo que por eso llega a portada.

carakola

#1 El tiempo y la energía que utilizas haciendo una cosa no se lo dedicas a la otra.

ur_quan_master

#3 el tópico es que las mujeres son más multitarea que los hombres. No creo que sea un problema.

Battlestar

#4 Para ser justos es que es difícil hacer varias cosas a la vez con una sola mano roll

Waves

#3 Ese argumento vale igual para dejar de hacer nada más que no sea "respirar". El tiempo que le dedicas a todo lo demás (e.g. beber agua) no se lo dedicas a respirar, que es lo más importante.

tul

#7 si no eres capaz de respirar mientras bebes agua algo no te enseñaron bien, pista: prueba a usar la nariz.

carakola

#7 Tienes que entender que el discurso político y la comunicación no son como respirar o beber agua. Se trata de interactuar con los demás, con un tiempo muy limitado para el discurso, teniendo en cuenta, además de tu propio tiempo y energía, el que le van a dedicar los demás a escucharte y hacerte caso.

frg

#1 Si lees el artículo igual descubres las razones que dan. Lee

frg

#27 Osea, que no lo vas a leer ...

Dakaira

#1 el articulo está muy interesante, siempre lo es con Federici. Así resumiendo viene a decir que la lucha es lucha de clases y contra el estado que es realmente el que ejerce violencia (es el estado el que no protege de la precariedad y castiga a las personas en situaciones precarias)

Amén de lanzar una reflexión sobre por qué cierto sector del feminismo le parece más violento quien ejerce la prostitución qué la militar que mata gente?

En realidad la invitación a reflexionar sobre esos asuntos es lícita e importante. Cualquier trabajo es prostitución: lo que pasa es que tendemos a pensar que no (todos vendemos nuestro cuerpo y alma al capital)

Y una y mil veces repetido antes puta que de las fuerzas y seguridad del estado, antes puta que linpiar culos, antes puta que monja, antes puta que trabajar para un banco y podría seguir...

crateo

#2 El antigitanismo de género es la opresión específica que sufren las mujeres gitanas a partir de la intersección del género, la raza y la clase social

O sea, que la opresión de las mujeres gitanas viene del malvado hombre blanco y no del machismo asqueroso de su cultura.

Nihil_1337

#21 Cuando los tribunales payos deciden en sus sentencias que las mujeres y niñas gitanas tienen menos derechos que el resto de la sociedad, si. Si hubiera sido un tribunal gitano el que dicto las exoneraciones y las rebajas de condenas o absoluciones tu comentario tendría sentido, pero no ha sido así.

m

#35 cuando un pueblo tiene un término para referirse a los que no son ellos y lo usan con frecuencia significa que tienen el racismo como seña de identidad. Pero que lo usen las víctimas de racismo de forma normalizada es de ser profundamente gilipollas.

MoñecoTeDrapo

#71 todos hablamos de judíos y gentiles y no nos rasgamos las vestiduras.

m

#76 sirve lo que digo exactamente igual para ese pueblo.

#81 no se han integrado jamás porque son profundamente racistas. La mayoría de pueblos que han pasado por la península se han integrado en pocos siglos y han dejado de sentirse diferentes para formar parte del todo. Salvo dos.

Renfield_s

#90 Que si chaval, tú a lo tuyo.
Nos vemos cuñao.

Renfield_s

#71 t
Todos los pueblos pequeños y minoritarios tienen términos para eso y su traducción suele ser “hombres”, “personas” o algo parecido a “humanos”.
Te pongo un ejemplo pero puedes buscar más si es que te interesa: “inuit” significa “la gente”.
En el caso de los gitanos (puedes averiguar de hecho de dónde sale esa palabra), su cultura y su gente ha sido perseguida sistemáticamente desde el inicio de su migración, hasta el punto de que hicieron falta análisis lingüísticos (y las tarde genéticos) para averiguar su procedencia ya que ni ellos mismos la conocían.
Siendo culturas (y personas) en resistencia lo de “payo” es más que comprensible.

Nihil_1337

#71 Un imbécil que no ha sido víctima de racismo en su vida ni de lejos tiene una opinión sobre la palabra payo.

aironman

#38 darles la ciudadanía a todos los palestinos musulmanes es imposible por razones prácticas, políticas y sociales.
Son muchísimos más que la población Israelí, con tendencia a procrear como si no hubiera un mañana, pobres de solemnidad, sin trabajos aunque eso se podría solucionar con la reconstrucción. El problema es su número y su capacidad de cambiar la composición del congreso israelí si estos permitieran un partido político con la sharia a la cabeza.

Una solución sería que hicieran reformas para que Israel fuese verdaderamente un estado laico donde mandaran a tomar por saco cualquier remembranza con una religión a nivel político y que todas las comunidades aprendan a llevarse bien de nuevo.

Es muy complicado, no creo que pase jamás. Probablemente los gazaties van a vivir como refugiados políticos permanezcan en las zonas desérticas designadas por el idf. Vigilados 24h por el idf, mientras el idf hace misiones de búsqueda y destrucción de objetivos de hamas. Si se siguen escondiendo entre los refugiados de hamas, seguirán muriendo más refugiados.

G

#43 Será complicado, pero es lo que hay si se quieren llamar democracia. Lo que no puede ser es invadir un país y mantener a sus antiguos ciudadanos cómo de segunda. 
 
Si te fijas en las estadísticas de nacimiento verás que los conejos judíos no andan tan lejos de cómo crían las ratas (digo en voz alta lo que implica tu tono) palestinas. A costa de los ultraortodoxos eso sí, así que olvídate de un estado de Israel menos religioso. Es lo que tiene fundar un país basado en preceptos fascistas de "una raza superior". Ah, y vuelve a revisar datos, están ahí ahí los dos en población, no son "muchísimos más". Suficientes para cambiar la política de la región, eso sí. 
 
Los gazaties y los cisjordanos van a seguir viviendo en apartheid, que parece que te da urticaria decirlo. Y eso es lo único que les espera si no directamente la limpieza étnica. Es obvio que hamas siempre existirá, porque el sentimiento de la gente que lo ha perdido todo está ahí, sin nadie que tienda la mano. 

aironman

#40 Yo pensaba que era imposible derrotar a ETA, y mira. También pensaba que era imposible lo del IRA y del apartheid Sudafricano, y algo se ha evolucionado. Al menos ya no se matan.

Si, puedo ser naive. Me pregunto que trataría de hacer Gandhi si siguiera vivo.

Ahora, con respecto al señor Mearsheimer, en mi opinión, las opiniones de las personas en política internacional siguen siendo opiniones, no son hechos.

Mañana leeré detenidamente sobre ese señor, por ahora sólo he leído que ya opinaba mal sobre el tratado de las armas nucleares Ucranianas.

G

#41 Pero analicemos cada caso cómo lo que es, no? El apartheid en Sudáfrica terminó entre otras cosas porque la inmensa mayoría del país era negra. Y por eso precisamente Israel no tiene interés en absorberlos. 
 
Mearsheimer no es un meneante random como yo. Es una eminencia de las ciencias políticas reconocido por todo el mundo, un hombre verdaderamente geopoliticamente realista, y que fue de los primeros en denunciar de forma clara y concisa cómo el lobby judío emponzoña la política estadounidense. Es un hombre para sentarse y escuchar. 
 
Y fue de los que era muy consciente de que ofrecerle a Ucrania entrar en la otan iba a conllevar la invasión rusa. Sus discursos pre guerra son premonitorios, y mejor hubiéramos hecho en escucharle. 

aironman

#42 "La única forma sensata de salir de la crisis, según él, es tener en cuenta sobriamente los intereses de seguridad de Rusia, como los de cualquier otra potencia. Ucrania, dijo, debe aceptar el papel de amortiguador o puente que le otorga su situación geo estratégica. Todo lo demás, dijo, es abstracto y carece de sentido en términos de Realpolitik."

Es decir, los intereses de libertad y prosperidad económica están supeditados a las necesidades de la oligarquía Rusa, en plata, que le den por saco a los Ucranianos. Pues menos mal que es una eminencia de las ciencias políticas reconocido por todo el mundo. Entiendo que te guste escucharle si eres claramente pro oligarquía Putin.
Yo, cada vez que pienso en Putin, pienso en la cantidad de gente que ha muerto asesinada por los servicios de inteligencia Rusa y eso son un montón de banderas rojas.

Opositores y Críticos Asesinados o Muertos en Circunstancias Sospechosas
Anna Politkóvskaya (2006):

Profesión: Periodista y activista de derechos humanos.
Circunstancias: Asesinada en su apartamento en Moscú. Politkóvskaya era conocida por sus reportajes críticos sobre la guerra en Chechenia y sobre Vladimir Putin.
Alexander Litvinenko (2006):

Profesión: Ex agente del FSB (servicio de seguridad ruso) y disidente.
Circunstancias: Envenenado con polonio-210 en Londres. Litvinenko había acusado al gobierno ruso de varios crímenes, incluyendo la orquestación de atentados en Rusia para justificar la guerra en Chechenia.
Boris Nemtsov (2015):

Profesión: Político de la oposición y ex viceprimer ministro.
Circunstancias: Asesinado a tiros cerca del Kremlin en Moscú. Nemtsov era un crítico abierto de Putin y estaba trabajando en un informe sobre la participación rusa en el conflicto en Ucrania.
Natalia Estemirova (2009):

Profesión: Activista de derechos humanos.
Circunstancias: Secuestrada y asesinada en Chechenia. Estemirova investigaba abusos de derechos humanos en Chechenia y trabajaba para la organización Memorial.
Sergei Magnitsky (2009):

Profesión: Abogado y auditor.
Circunstancias: Murió en prisión bajo condiciones sospechosas después de denunciar una gran red de corrupción que involucraba a funcionarios rusos.
Stanislav Markelov y Anastasia Baburova (2009):

Profesión: Abogado de derechos humanos y periodista.
Circunstancias: Asesinados a tiros en Moscú. Markelov era conocido por representar a víctimas de abusos de derechos humanos en Chechenia.
Yuri Shchekochikhin (2003):

Profesión: Periodista y político.
Circunstancias: Murió en circunstancias sospechosas, posiblemente envenenado. Investigaba corrupción y crimen organizado en Rusia.
Boris Berezovsky (2013):

Profesión: Empresario y ex oligarca.
Circunstancias: Encontrado muerto en su casa en el Reino Unido. Aunque su muerte fue oficialmente declarada como suicidio, muchos la consideran sospechosa debido a su abierta oposición a Putin.
Paul Klebnikov (2004):

Profesión: Editor de Forbes Rusia.
Circunstancias: Asesinado a tiros en Moscú. Klebnikov había investigado la corrupción en Rusia y las conexiones de oligarcas con el gobierno.
Valery Panyushkin (2006):

Profesión: Periodista.
Circunstancias: Encontrado muerto en su apartamento en Moscú en circunstancias sospechosas.
Sergei Yushenkov (2003):

Profesión: Político liberal.
Circunstancias: Asesinado a tiros en Moscú. Yushenkov estaba investigando los atentados con bomba en apartamentos rusos de 1999.
Natalya Gorbanevskaya (2013):

Profesión: Poeta, disidente soviética y activista de derechos humanos.
Circunstancias: Murió en París en circunstancias que algunos consideran sospechosas, aunque oficialmente murió de causas naturales.
Casos de Envenenamiento y Otros Ataques
Vladimir Kara-Murza (2015 y 2017):

Profesión: Activista político.
Circunstancias: Sobrevivió a dos intentos de envenenamiento que lo dejaron en coma. Es un crítico vocal del gobierno de Putin.
Alexei Navalny (2020):

Profesión: Político de la oposición y activista anticorrupción.
Circunstancias: Envenenado con un agente neurotóxico Novichok. Sobrevivió después de recibir tratamiento en Alemania y sigue siendo una figura prominente en la oposición rusa.
Pyotr Verzilov (2018):

Profesión: Activista y miembro de Pussy Riot.
Circunstancias: Envenenado y hospitalizado en estado grave, sobrevivió después de recibir tratamiento en Berlín.

G

#45 Vamos a ver chico, si vas a seguir siendo tan superficial cómo un charco poco vamos a hacer ya. No tildes de pro putin a un tío que nos da mil vueltas a todos en conocimiento de relaciones internacionales. 
 
Yo tampoco soy pro-putin, tranquilo. Sólo defiendo lo mismo que este señor: Si no estamos dispuestos a poner nuestros soldados y pegarnos personalmente con Rusia, que coño estamos haciendo? 
 
En eso consiste la realpolitik que defiende este señor y que yo suscribo también. Obviamente, muy triste lo de esos rusos y lo de los ucranianos, pero cual es la alternativa si no es negociar? 
 
Viendo también que has dejado de lado el debate israelí, asumo que me das la razón en todo. Al menos, no sabes cómo rebatirlo. 

aironman

#46 bueno, al menos te parece muy triste el destino de los ucranianos.

No, no he seguido leyendo más a este señor, para otro día. Su real politik de sacrificar a unos pocos por el bien de muchos, porque hay un matón muy matón, me recuerda mucho a otro que en su momento también sabía mucho de realpolitik de su época, tanto, que llegó a primer ministro del imperio británico. Chamberlain.

Otra, me doy cuenta que no quieres debatir, quieres ganar, demostrar algo.

Yo no siento que tenga que demostrarte nada ni quiero ganar debates, por lo que, gracias, pero hasta aquí.

G

#47 Pero vamos a ver, si yo he sido el que he ido contestando a tu tono y escaladas, que parece que no recuerdas cómo has empezado la conversación. 
 
Yo he contestado a cada una de tus acusaciones, pero tu no te dignas ni a contarme que subreddits visitas, que por lo que asumo serán los más rancios; automáticamente simplificas y tildas de proputin a una eminencia geopolitica; y te desvías completamente el tema israelí cuando asumo que no tienes ningún argumento más. Cómo quieres debatir así? Este ataque de indignación sólo me confirma que no hay nada detrás. 
 
Y oye, que si tu crees que la solución es poner ejércitos de la otan contra Rusia dilo, Churchill. Pero afirmalo en voz alta y sin miedo, no me tienes que demostrar más. 

aironman

#48 mira, siento que hayas creído en algún momento que yo quería ganarte en algún tipo de argumentación. Eso son películas que te montas en la cabeza.

No creo haberte acusado de nada, o por lo menos, esa no era mi intención.

Por mi parte, me conformo que sepas quien fue Chamberlain en su momento de la misma manera que me has enseñado que las enseñanzas de Chamberlain siguen vigentes pues este señor al que tienes en tan alta estima básicamente sigue su estela.

No asumas nada, me tomo muy en serio mi privacidad como para ahora tener que preocuparme de un posible acosador de redes, esa es la razón por la que no comparta nada más contigo.

aironman

#121 no, contarme nada. Ver. Tú sabes la impresión que da ver eso con 12 años?

A ver, he buscado el registro en RTVE de esa época, es lo mismo que vi yo.

Puedes darle al play del vídeo?

aironman

#86 Occidente siendo el bueno de la película? La misma Occidente que inventó la democracia y el imperialismo en África, Sudamérica y Asia? Mejor nos quedamos donde estamos, demasiadas luces y sombras.