rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#34, creo que me he explicado mal. Claro que conozco que existen benchmarks para evaluar el rendimiento de los modelos de lenguaje. De hecho algunos de los que te he pasado antes ya evalúan esto y en algunos de los que tú comentas ahora, GPT4 consigue una precisión cercana al 100%, por eso no entiendo por qué los referencias como prueba de que el problema del razonamiento y el sentido común es insalvable.

En realidad me refería a si conoces algun test de evaluación en el que los LLM lleven varios años estancados sin signos de mejoría para decir que no podrán seguir mejorando en capacidades como el razonamiento y el sentido común será imposble de resolver con este tipo de arquitecturas.

aironman

#c-35" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/35">#35 bueno, honestamente no creo haber dicho que el problema sea insalvable, si no que con la arquitectura de transformadores actuales no parece que llegamos a este ritmo a igualar a un ser humano.

Según preguntas a gpt4-o, esto responde:

As of 2024, no large language model (LLM), including the most advanced models like GPT-4, has consistently demonstrated superior logical-mathematical reasoning and common sense compared to a human. Here are some key points and comparisons:

### Logical-Mathematical Reasoning

1. **HumanEval Benchmark**:
- GPT-4 shows significant improvement in solving programming tasks compared to its predecessors, achieving performance close to human levels on certain coding benchmarks. However, it still makes mistakes that an experienced programmer might not, indicating it hasn't surpassed human capability overall [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/) .

2. **MATH Dataset**:
- GPT-4 has achieved better results on mathematical problems, yet it still struggles with complex or novel problems that require deeper understanding or innovative solutions [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#37, en ningún momento he dicho que los modelos actuales tengan un desempeño superior al de los humanos. Lo que digo, siento volver a insistir en esto, es que no podemos quedarnos en la foto del momento, que esta tecnología está mejorando mucho. GPT-5 va a salir a finales de año y viendo la tendencia no descarto que supere al desempeño humano. En lo que tenemos que ponernos deacuerdo es que esto hay que evaluarlo a base de benchmark, no en base a opiniones.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#34, creo que me he explicado mal. Claro que conozco que existen benchmarks para evaluar el rendimiento de los modelos de lenguaje. De hecho algunos de los que te he pasado antes ya evalúan esto y en algunos de los que tú comentas ahora, GPT4 consigue una precisión cercana al 100%, por eso no entiendo por qué los referencias como prueba de que el problema del razonamiento y el sentido común es insalvable.

En realidad me refería a si conoces algun test de evaluación en el que los LLM lleven varios años estancados sin signos de mejoría para decir que no podrán seguir mejorando en capacidades como el razonamiento y el sentido común será imposble de resolver con este tipo de arquitecturas.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

rojo_separatista

#20, ojalá me equivoque, pero creo que el impacto que tendrá en el mercado laboral no es comparable con ninguna otra tecnología desde la aparición de la máquina de vapor.

aironman

#21 Lo que yo veo es que no está teniendo un gran impacto, es decir, no se está despidiendo de manera masiva a ingenieros por culpa de la IA. Están despidiendo por otros momentos pero no se debe a la eficacia en la IA, de hecho, yo estoy notando que hay una gran reticencia a implantar la IA en producción, y es normal porque para empezar es muy dificil y es muy costosa. Por ahora, he visto al BBVA, a seguros Ocaso, al Santander, a Ericsson, por decirte unos cuantos que conozco de cerca que están explorando la tecnología, vamos, que han conseguido licencias enterprise de openAI y están viendo como integrarlos en sus modelos de negocio.

Me dicen que cuando se enteran que tendrían que integrar sus datos, que ya tienen en otras nubes de otros proveedores con los sistemas internos de openAI o con Azure, no les gusta demasiado, porque ya de por sí no están muy cómodos con haber perdido el control de los que les hace funcionar. Los datos de los clientes. Los que usan Azure de manera masiva ponen menos problemas, pero otro proveedor más,...

Una primera aproximación es usar los datos que tienen en el JIRA para tratar de crear un chatbot que ayude en los onboarding, pero como esos datos tienen escasa calidad, se encuentran que hay mucha información inconexa. Culpa del modelo?, yo diría que no, es culpa del estado de los datos, que es un berengenal. Cada tribu ha introducido su manera de hacer no se que historia, algunos usan una versión de un software, otros usan otras versiones, algunos están mejor escritos que otros, por lo que, esos chats generan unos resúmenes muy malos, y poco fiables.

Otros, han usado gpt con los datos de los pacientes y del vademecum para tratar de crear una herramienta que ayude a los médicos. Como la han hecho de espaldas a los médicos, en cuanto la usan empiezan a sacarle problemas y dejan de usarla. Es lo que ocurre cuando haces algo a espaldas del usuario.

Otros han hecho soluciones ad hoc con datos de pacientes con algún tipo de cáncer, en plan reconocimiento de imágenes para dar una opinión rápida al médico especialista si ese bultito es maligno o benigno. Esto lo hacen hospitales privados que han encargado este tipo de software. Por lo que me dicen funciona bastante bien, pero como son empresas pequeñitas, están muy limitadas por el hardware del que disponen. También tienen un software que directamente no escala, por lo que tienen ese problema.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

Robus

#21 Yo creo que tendrá el mismo impacto que la llegada de los ordenadores a las oficinas.

Se harán cosas que nunca se pensó que se podrían hacer y la gente aprendió a trabajar con sistemas que ni se les había pasado por la cabeza que un día iban a utilizar.

Mi padre me contaba que tenían un ordenador PC en una habitación y les dejaban ir 2 horas a la semana por departamento... y él aprendió a hacer virguerías con el lotus 123 que le quitaba muchisimo trabajo de encima!

rojo_separatista

#15, tampoco es verdad, si le aprietas sigue alucinando bastante, lo que si es verdad es que se han reducido muchísimo. Me gustaría saber en qué se basa esta gente para decir que ya hemos llegado al pico. Siempre me acuerdo de un artículo de 2017 que decía que el Deep Learning ya no daba más de sí. lol

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

XavierGEltroll

#1 España ya no es una democracia, es una dictadura. Les falta añadir "y eso nos pone palotes"

ur_quan_master

#4 exacto. Tienen la democracia socavada y lo saben.

ezbirro

#1 #4 #20 #23 #37 La que les va a caer
Los cuatro condenados de los seis de Zaragoza cumplen 50 días en la cárcel: "Cada día en prisión es responsabilidad del Gobierno"

Hace 19 horas | Por ElenaTripillas a arainfo.org

O no... Si les cae dirán que es una dictadura, si no les cae veremos que todo esto es un cachondeo.

Malinois

#4 por suerte,no saben lo que es una dictadura. Son gilipollas hasta en éso

ContinuumST

#23 Eso es lo malo, o el olvido consciente de los que sí lo saben (con una edad) o los que no tienen ni puñetera idea de lo que es, claro que sospechan que estarían en la acera correcta de la Historia. En fin...

Eibi6

#4 realmente pone dictatorship

P

#4 Pregunta seria: ¿qué argumentan exactamente para decir que vivimos en una dictadura?

W

#76 que no gobiernan ellos

Glidingdemon

#65 Es que en una dictadura no habría elecciones, ya lo dice #78 el problema que tienen es que cuando su opción política no gobierna es un gobierno ilegítimo o una dictadura bolivariana.

Vinividivicious

#76 que ya no se pueden hacer chistes de maricones

n

#4 Les falta decir: solo es una democracia cuando piensa el resto de españoles como pienso yo, cuando piensan diferente es una dictadura así que se puede dar un golpe de estado militar porque no piensan como yo.

Los únicos que se están cargando España y haciéndola desaparecer por apropiarse de lla como si fuera suya son ellos. Hay que reclamarla para que sea de todos/as los españoles y no dejar que se la vuelvan a apropiar un grupito de gente.

q

#115 empezando por la bandera. Y lo digo yo, criado escuchando La Polla Records. Es un trapo de colores, pero es inconcebible que en un país, la bandera se asocie a una ideología política (por llamarlo de algún modo)

XavierGEltroll

#1 España ya no es una democracia, es una dictadura. Les falta añadir "y eso nos pone palotes"

ur_quan_master

#4 exacto. Tienen la democracia socavada y lo saben.

ezbirro

#1 #4 #20 #23 #37 La que les va a caer
Los cuatro condenados de los seis de Zaragoza cumplen 50 días en la cárcel: "Cada día en prisión es responsabilidad del Gobierno"

Hace 19 horas | Por ElenaTripillas a arainfo.org

O no... Si les cae dirán que es una dictadura, si no les cae veremos que todo esto es un cachondeo.

Malinois

#4 por suerte,no saben lo que es una dictadura. Son gilipollas hasta en éso

ContinuumST

#23 Eso es lo malo, o el olvido consciente de los que sí lo saben (con una edad) o los que no tienen ni puñetera idea de lo que es, claro que sospechan que estarían en la acera correcta de la Historia. En fin...

Eibi6

#4 realmente pone dictatorship

P

#4 Pregunta seria: ¿qué argumentan exactamente para decir que vivimos en una dictadura?

W

#76 que no gobiernan ellos

Glidingdemon

#65 Es que en una dictadura no habría elecciones, ya lo dice #78 el problema que tienen es que cuando su opción política no gobierna es un gobierno ilegítimo o una dictadura bolivariana.

Vinividivicious

#76 que ya no se pueden hacer chistes de maricones

n

#4 Les falta decir: solo es una democracia cuando piensa el resto de españoles como pienso yo, cuando piensan diferente es una dictadura así que se puede dar un golpe de estado militar porque no piensan como yo.

Los únicos que se están cargando España y haciéndola desaparecer por apropiarse de lla como si fuera suya son ellos. Hay que reclamarla para que sea de todos/as los españoles y no dejar que se la vuelvan a apropiar un grupito de gente.

q

#115 empezando por la bandera. Y lo digo yo, criado escuchando La Polla Records. Es un trapo de colores, pero es inconcebible que en un país, la bandera se asocie a una ideología política (por llamarlo de algún modo)

traviesvs_maximvs

#1 los cayetanitos de los cojones son una rémora para el país. Me dan un asco inabarcable.

editado:
yo también uso polos eh, cuidao lol

Pichaflauta

#40 pero polos con banderita y/o un toro?

manbobi

#80 O un bordado de un jinete de polo a tamaño natural

Z

#40 yo también eh, del primark

G

#1 Bueno, y en el tuit hablan de "personas".

Mas bien son NPCs (PNJ)

https://es.m.wikipedia.org/wiki/Personaje_no_jugador

lol

Eibi6

#1 y atacando el castellano con una pancarta en spanglish, patriota pero solo poquito

ochoceros

#61 Es que si no los financiadores del evento no lo entienden y no les sueltan la panoja.

S

#1 Ya quisieran, ya... En una dictadura no estarían a la puerta de un colegio electoral. Y probablemente ni se hubieran atrevido a desplegar una pancarta.

T

#1 y todos anti españoles. Otros HDP que prostituyen la bandera de todos.

s

#1 Esto es coacción del voto. Delito electoral, es una vergüenza que la policia no se los haya llevado detenidos.

b

#1 Y queriendo llevar la banderita del pollo.

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

rojo_separatista

#8, es bueno ser escépticos pero me preocupa que como sociedad no estemos preparados para una tecnología tan importante. El tema de las alucinaciones se ha venido reduciendo en cada iteración, GPT-4 alucina menos que GPT-3 y este a su vez menos que los anteriores. A eso me refiero cuando digo que no debemos quedarnos en la foto del momento.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

rojo_separatista

#3, con que este ritmo de progresión dure 5 años, estamos hablando de IAs más inteligentes que cualquier ser humano en todos los sentidos. Ni tu ni yo sabemos dónde va a estar el pico, lo que sí sabemos es que no podemos quedarnos con la foto del momento ya que esto evoluciona muy rápidamente.

T

#4 ¿Inteligentes? Bueno, cualquier ordenador de sobremesa es más inteligente que un humano desde hace mucho tiempo, depende lo que compares y lo que llames "inteligencia".

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

Fernando_x

#6 Yo llamo inteligencia la capacidad de resolver problemas de todo tipo, basándose en conocimientos previos y capacidad lógica. Mas o menos, ya nos ha adelantado a muchos.

Pero eso sí, solo tiene inteligencia. No tiene creatividad. Si le pides una historia completamente nueva que sea ingeniosa o una obra pictórica que sea realmente novedosa y original, fracasa. Incluso si le pides que invente un chiste nuevo.

Tampoco tiene conciencia, por si no quedaba claro. Es tan solo inteligencia.

Ghandilocuente

#14 Si hablamos de inteligencia, en medio de una comparacion con la humana, inteligencia es la capacidad de comprender conceptos abstractos, y si quieres luego.... la capacidad de resolver problemas con soluciones basadas en esa compresnion/entendimiento.

Las IAs a dia de hoy no entienden nada
Words are not enough: Why Artificial Intelligence cannot achieve understanding
https://www.abc.net.au/religion/why-artificial-intelligence-cannot-achieve-understanding/102288234

Here’s why AI like ChatGPT probably won’t reach humanlike understanding
https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence

Why large language models aren’t headed toward humanlike understanding
https://www.sciencenews.org/article/ai-large-language-model-understanding

Algo que puede resolver problemas, sin comprenderlos, no es inteligente... sera muchas otras cosas, pro no inteligente.

Ghandilocuente

#4 Mientras no resuelvan el tema de las alucinaciones yo me mantendre esceptico
Luego esta el tema de los costos, que no son para nada despreciables.
Y para que en 5 años las IAs sean mas inteligentes que cualquier ser humano, primero tendrian que ser inteligentes como un humano., cosa que no son.

Mucho cuidado con el hype...

rojo_separatista

#8, es bueno ser escépticos pero me preocupa que como sociedad no estemos preparados para una tecnología tan importante. El tema de las alucinaciones se ha venido reduciendo en cada iteración, GPT-4 alucina menos que GPT-3 y este a su vez menos que los anteriores. A eso me refiero cuando digo que no debemos quedarnos en la foto del momento.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

Fernando_x

#8 Las alucinaciones han desaparecido prácticamente del todo en chatGPT4. Ya no se inventa cosas. Si no te puede dar el dato, te dice que no tiene acceso o que no lo sabe. Es muy raro que se lo invente o alucine.

rojo_separatista

#15, tampoco es verdad, si le aprietas sigue alucinando bastante, lo que si es verdad es que se han reducido muchísimo. Me gustaría saber en qué se basa esta gente para decir que ya hemos llegado al pico. Siempre me acuerdo de un artículo de 2017 que decía que el Deep Learning ya no daba más de sí. lol

rojo_separatista

Por eso es absurdo centrarse en las limitaciones presentes de los modelos actuales. La velocidad a la que evoluciona esta tecnología es superior a nuestra capacidad de adaptarnos a ella.

Ghandilocuente

#1 Lo que es absurdo es pensar que las cosas pueden seguir progresando infinitamente de forma ininterumpida.
Esta ola de progreso en el campo de la IA ha sido espectacular, nadie lo niega, pero va a hacer pico (hay quien opina que ya lo ha hecho), y habra que esperar a la siguiente ola, quizas en unos años, quizas decadas, para mas avances.

rojo_separatista

#3, con que este ritmo de progresión dure 5 años, estamos hablando de IAs más inteligentes que cualquier ser humano en todos los sentidos. Ni tu ni yo sabemos dónde va a estar el pico, lo que sí sabemos es que no podemos quedarnos con la foto del momento ya que esto evoluciona muy rápidamente.

T

#4 ¿Inteligentes? Bueno, cualquier ordenador de sobremesa es más inteligente que un humano desde hace mucho tiempo, depende lo que compares y lo que llames "inteligencia".

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

Fernando_x

#6 Yo llamo inteligencia la capacidad de resolver problemas de todo tipo, basándose en conocimientos previos y capacidad lógica. Mas o menos, ya nos ha adelantado a muchos.

Pero eso sí, solo tiene inteligencia. No tiene creatividad. Si le pides una historia completamente nueva que sea ingeniosa o una obra pictórica que sea realmente novedosa y original, fracasa. Incluso si le pides que invente un chiste nuevo.

Tampoco tiene conciencia, por si no quedaba claro. Es tan solo inteligencia.

Ghandilocuente

#14 Si hablamos de inteligencia, en medio de una comparacion con la humana, inteligencia es la capacidad de comprender conceptos abstractos, y si quieres luego.... la capacidad de resolver problemas con soluciones basadas en esa compresnion/entendimiento.

Las IAs a dia de hoy no entienden nada
Words are not enough: Why Artificial Intelligence cannot achieve understanding
https://www.abc.net.au/religion/why-artificial-intelligence-cannot-achieve-understanding/102288234

Here’s why AI like ChatGPT probably won’t reach humanlike understanding
https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence

Why large language models aren’t headed toward humanlike understanding
https://www.sciencenews.org/article/ai-large-language-model-understanding

Algo que puede resolver problemas, sin comprenderlos, no es inteligente... sera muchas otras cosas, pro no inteligente.

Ghandilocuente

#4 Mientras no resuelvan el tema de las alucinaciones yo me mantendre esceptico
Luego esta el tema de los costos, que no son para nada despreciables.
Y para que en 5 años las IAs sean mas inteligentes que cualquier ser humano, primero tendrian que ser inteligentes como un humano., cosa que no son.

Mucho cuidado con el hype...

rojo_separatista

#8, es bueno ser escépticos pero me preocupa que como sociedad no estemos preparados para una tecnología tan importante. El tema de las alucinaciones se ha venido reduciendo en cada iteración, GPT-4 alucina menos que GPT-3 y este a su vez menos que los anteriores. A eso me refiero cuando digo que no debemos quedarnos en la foto del momento.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

Fernando_x

#8 Las alucinaciones han desaparecido prácticamente del todo en chatGPT4. Ya no se inventa cosas. Si no te puede dar el dato, te dice que no tiene acceso o que no lo sabe. Es muy raro que se lo invente o alucine.

rojo_separatista

#15, tampoco es verdad, si le aprietas sigue alucinando bastante, lo que si es verdad es que se han reducido muchísimo. Me gustaría saber en qué se basa esta gente para decir que ya hemos llegado al pico. Siempre me acuerdo de un artículo de 2017 que decía que el Deep Learning ya no daba más de sí. lol

DaiTakara

#3 O no.
Pero para qué discutir. Esto es como aquellos que en el 99 decían "¡¡yo nunca tendré un móvil!!"

Ghandilocuente

#5 Esro es como aquellos que a principio de los 90 decian "en el año 2000 iremos todos en coches voladores"

Disiento

#7 y ya nos hemos pasado 24 pueblos.

Robus

#1 ¿Superior a nuestra capacidad de adaptarnos a ella?

No se de donde sacas eso... es como decir que los teléfonos móviles evolucionaron a una velocidad superior a la que te puedes adaptar...

No niego que hubo gente que tuvo problemas con el cambio del Nokia 3060 al smartphone, pero la mayoría de la gente se adaptó sin problemas.

Al igual que harán cuando les digan que no tienen que hacerse costosas pruebas diagnósticas ya que una IA, con una gota de sangre, ya es capaz de identificar la tira de enfermedades.

La gente se va a adaptar a toda velocidad, igual que se adaptó a las resonancias magnéticas, a los aviones y a las neveras.

rojo_separatista

#20, ojalá me equivoque, pero creo que el impacto que tendrá en el mercado laboral no es comparable con ninguna otra tecnología desde la aparición de la máquina de vapor.

aironman

#21 Lo que yo veo es que no está teniendo un gran impacto, es decir, no se está despidiendo de manera masiva a ingenieros por culpa de la IA. Están despidiendo por otros momentos pero no se debe a la eficacia en la IA, de hecho, yo estoy notando que hay una gran reticencia a implantar la IA en producción, y es normal porque para empezar es muy dificil y es muy costosa. Por ahora, he visto al BBVA, a seguros Ocaso, al Santander, a Ericsson, por decirte unos cuantos que conozco de cerca que están explorando la tecnología, vamos, que han conseguido licencias enterprise de openAI y están viendo como integrarlos en sus modelos de negocio.

Me dicen que cuando se enteran que tendrían que integrar sus datos, que ya tienen en otras nubes de otros proveedores con los sistemas internos de openAI o con Azure, no les gusta demasiado, porque ya de por sí no están muy cómodos con haber perdido el control de los que les hace funcionar. Los datos de los clientes. Los que usan Azure de manera masiva ponen menos problemas, pero otro proveedor más,...

Una primera aproximación es usar los datos que tienen en el JIRA para tratar de crear un chatbot que ayude en los onboarding, pero como esos datos tienen escasa calidad, se encuentran que hay mucha información inconexa. Culpa del modelo?, yo diría que no, es culpa del estado de los datos, que es un berengenal. Cada tribu ha introducido su manera de hacer no se que historia, algunos usan una versión de un software, otros usan otras versiones, algunos están mejor escritos que otros, por lo que, esos chats generan unos resúmenes muy malos, y poco fiables.

Otros, han usado gpt con los datos de los pacientes y del vademecum para tratar de crear una herramienta que ayude a los médicos. Como la han hecho de espaldas a los médicos, en cuanto la usan empiezan a sacarle problemas y dejan de usarla. Es lo que ocurre cuando haces algo a espaldas del usuario.

Otros han hecho soluciones ad hoc con datos de pacientes con algún tipo de cáncer, en plan reconocimiento de imágenes para dar una opinión rápida al médico especialista si ese bultito es maligno o benigno. Esto lo hacen hospitales privados que han encargado este tipo de software. Por lo que me dicen funciona bastante bien, pero como son empresas pequeñitas, están muy limitadas por el hardware del que disponen. También tienen un software que directamente no escala, por lo que tienen ese problema.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

Robus

#21 Yo creo que tendrá el mismo impacto que la llegada de los ordenadores a las oficinas.

Se harán cosas que nunca se pensó que se podrían hacer y la gente aprendió a trabajar con sistemas que ni se les había pasado por la cabeza que un día iban a utilizar.

Mi padre me contaba que tenían un ordenador PC en una habitación y les dejaban ir 2 horas a la semana por departamento... y él aprendió a hacer virguerías con el lotus 123 que le quitaba muchisimo trabajo de encima!

t

Es una buena manera de reconocer su ausencia de inteligencia natural.

P

#5 Es como cuando no tienes ni idea de cómo resolver algo y le preguntas a una IA. Solo que ese "algo" es el futuro de todo un país

I

#5 Por lo menos va a comenzar a usar inteligencia

anteojito

#22 #2 #4 #32 #34 #35 Todo son risotadas hasta que:

🇦 🇷 ⚠ ️ 🚨 INTELIGENCIA ARTIFICIAL
⚠ ️CIBERPATRULLAJE: El gobierno de Milei a través de su Ministra de Seguridad, Patricia Bullrich, habilita el ciberpatrullaje en internet y autoriza el uso de inteligencia artificial para ayuda al ciberpatrullaje.
👉 Patricia Bullrich también dijo que quería crear un banco de ADN de toda la población Argentina

Papirolin

#58 Va a destruir el Estado oprimiendo a la población con las herramientas del Estado hasta que ya nadie quiera saber más nada con el aparato opresivo.

U

#58 Eso no suena mucho a libertad...

c

#80 ¿Y a carajo?

U

#90 Suena más a eso.

D

#5 Y de reconocer quién lo ha puesto ahí, diría yo...

Argentina iba a entrar en los BRICS+ y ha pasado de eso a experimentar con la IA de Google en su gobierno.

Los yankees que experimentaron con Chile, ahora van con Argentina y matan dos pájaros de un tiro.

Verdaderofalso

Una IA programada en base al neoliberalismo más brutal con el código:

Pobres

frg

#4 Para eso no hace falta una IA. Cualquier hijoputa sabe lo que hay que hacer.

k

#7 pero la IA es super conveniente para quitarte la responsabilidad cuando decides barbaridades.

Le preguntas hasta que saque la respuesta que te gusta, y luego dices: no lo dije yo, lo dijo la IA y debe ser lo correcto.

Entre IAs e imbéciles como el tipo este, la que nos queda por delante. Y mientras Google frotándose las manos y haciendo caja.

vviccio

#4 Ahora sí, ahora por fin funcionarán las recetas de los Chicago boys: no.

e

#15 las recetas de los Chicago Boys han funcionado siempre, sobre todo para USA, Son simples, simples, ponemos a un monigote corrupto al frente de cada estado y nuestras empresas a hacer caja mientras el pais de turno se hunde en la mierda

a

#4 No puedes programar un LLM. No es algo controlable. Hace lo que le da la gana.

#20 ¿Eso es así realmente? Yo imaginaba que en los entrenamientos se incluían algoritmos que premiaran sitos como wikipedia, más visitados y cosas así. Si realmente fuera neutral molaría mucho más.

Hace tiempo que me gusta pensar en programas de gobierno basados en estudios por IA, pero esos programas "ideales" en cuanto a la optimización de recursos deberían responder a las preferencias del electorado. Es decir, a una ideología.

perrico

#20 Le tienes que dar un prompt. No es lo mismo pedirle: "mejora la calidad de vida de los ciudadanos" o "acaba con la inflación en 2 meses"
La mejor manera de acabar con la inflación es que se muera todo el mundo.

c

#20 Claro que puedes. ES un programa

anteojito

#22 #2 #4 #32 #34 #35 Todo son risotadas hasta que:

🇦 🇷 ⚠ ️ 🚨 INTELIGENCIA ARTIFICIAL
⚠ ️CIBERPATRULLAJE: El gobierno de Milei a través de su Ministra de Seguridad, Patricia Bullrich, habilita el ciberpatrullaje en internet y autoriza el uso de inteligencia artificial para ayuda al ciberpatrullaje.
👉 Patricia Bullrich también dijo que quería crear un banco de ADN de toda la población Argentina

Papirolin

#58 Va a destruir el Estado oprimiendo a la población con las herramientas del Estado hasta que ya nadie quiera saber más nada con el aparato opresivo.

U

#58 Eso no suena mucho a libertad...

c

#80 ¿Y a carajo?

U

#90 Suena más a eso.

Cuñado

#2 Cuanto más veo de Milei menos entiendo cómo coño alguien puede siquiera plantease votar a semejante montón de estiércol.

carakola

#33 Loco peligroso, tendrían que encerrarlo:

Varlak

#33 Porque Argentina lleva décadas yendo de mal en peor con la economía siendo un completo desastre y el otro partido presentó a las elecciones.... al ministro de economía.

Papirolin

#41 Milei ha empeorado todos los parámetros económicos que afectan la vida de las personas. No sirve el argumento de que estamos mal porque antes estábamos mal. Hubo una feroz campaña propagandística que hizo que millones votaran como la mierda.

Cuñado

#41 #56 #64 Argentina no es un país bipartidista al estilo de EE.UU., el Reino Unido o España en el que independientemente del candidato al que pongas sabes que quedará de entre los dos primeros.

El argumento de "lo mal que lo hicieron los peronistas" se lleva aplicando en Argentina desde Perón y es la base de la alternancia política, pero Milei no era "el otro" sistémico (en las primarias había como treinta candidatos y, en la primera vuelta, cinco), fueron los votantes (con la ayuda "desinteresada" de los medios) los que pusieron ahí a un puto loco que habla con su perro muerto.

Me temo que la explicación no se encuentra únicamente en la política argentina y tiene mucho que ver con el populismo de la mal llamada alt-right de Steve Bannon y adláteres.

T

#65
En segunda vuelta había dos candidatos: más de lo mismo o lo desconocido. Y mira si la gente estaba desesperada que voto lo desconocido. Que me hables de los medios en argentina como funcionaba el país hasta ese momento es que me parece hasta cómico.


Que si, que hay varias corrientes de pensamiento en el mundo es evidente. Ahí está también el grupo de puebla recogiendo lo sembrado. Conceptos de violencia vicaría, law fare y todas los disparates de politicas identitarias que se han sacado de la manga nuestros dirigentes no han salido de las cabezas de nuestros brillantes dirigentes.

Y directamente ni comento lo de los bulos sobre Milei, desconozco que hace con sus perros pero vamos, te pone en evidencia más a ti.

U

#70 Veo que la narrativa consiste en decir que lo de los perros es un bulo, debe dar vergüenza reconocerlo por más documentado que esté.

Cuñado

#70 desconozco que hace con sus perros pero es un bulo

lol Madremía... no si está claro que a regre no se llega pensando.

No voy a hacer por ti la búsqueda en Google porque es evidente que no te importan los hechos y prefieres adaptar tu "verdad" a tus prejuicios.

T

#108 que si, que también ha legalizado el trafico de órganos.

Bul0, ¿esto también es fango?

Cuñado

#109 Milei no habla con su perro muerto porque no legalizó el tráfico de órganos...

Brillante argumentación. Tiene mucho mérito meter un non sequitur y un hombre de paja en una misma frase. Permíteme que me corrija:

no si está claro que a regre no se llega pensando razonando.

tableton

#33 es q no has visto el nivelon de sus votantes

S

#33 Desesperación: las cosas iban muy mal. Y decidieron probar con algo diferente… Por supuesto, el ruido y jalear a los otros le ayudo, porque nadie leyó sus medidas
 
O directamente leyó. Con leer un poco, seguramente los votantes comenzarían a votar de verdad a lo que les representa

javierreta

#33 Así de grave fue la corrupción del peronismo. A eso duma su incapacidad para resolver los graves problemas económicos qué había heredado (sí, de Macri, pero ellos dijeron que podrían resolverlos). El poner a un candidato de derechas contra las otras y por supuesto todo el trabajo de las grandes corporaciones qué controlan los medios masivos de comunicación.

T

#33 Era o susto o muerte. El otro era el ministro de economía que los había llevado a la ruina.

c

#33 Mira aqui cuantos votan a Abascal.

Anomalocaris

#17 Si no te interesa la cultura de tu tierra, por mucho que hayas nacido en ella, eres extranjero.

rojo_separatista

#32, o colono. Aunque si les dices esto se ofenden.

laserpmagica

#17 Ni inmigrante es un termino degradante ni es el adecuado en ese caso puesto que hay muchos inmigrantes que sí son capaces de aprenderlo. Yo el que usaría en el caso que describes es subnormal.

rojo_separatista

#27, #47, una característica esencial de los comunistas es la constante capacidad de autocrítica, así que sí, no tengo problemas en criticar cómo se trató a los homosexuales en la Unión Soviética y el resto de estado socialistas y suscribo todas y cada una de las palabras que dijo Fidel en este sentido, era básicamente un problema cultural heredado que los comunistas no supieron superar:

Estauracio

#63 una característica esencial de los comunistas es la constante capacidad de autocrítica,
lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol

rojo_separatista

Siempre me ha hecho gracia lo parecidos que son algunos sectores que apoyan la ultraderecha con los islamistas. Y no, no es porque los extremos se tocan, sino porque aunque no lo sepan, ambos están en el mismo extremo.

M

#6 En cambio en la URSS la homosexualidad era algo permitido, aceptado sin problemas. No una desviación burguesa. El Che era amante de los derechos LGTBI y Cuba ha tardado 20 años más que el reino Borbónico de España en legalizar el matrimonio gay por culpa del bloqueo

#27 En Cuba su presidente pidió perdón a los homosexuales ¿cuando lo va a hacer el jefe de estado español?, en España hasta los años 80 los homosexuales eran declarados vagos y maleantes y encereados en la carcel con presos comunes , en Cuba desde los años 70 son libres, y NUNCA estuvieron con presos comunes.

Estauracio

#46 Es que, en Cuba, ese mismo presidente que se disculpó fue también el responsable de la represión homófoba. No sé si captas la diferencia.

Ysinembargosemueve

#54 En España con Felipe X seguia activa la ley de maleantes ¡durante 8 años!.

r

#46
1-No es tan loable que Castro pida disculpas por la persecución que él mismo fomentó, un puto medio siglo después.

2-Sí, presidentes del gobierno (socialistas) han pedido perdón a las víctimas del franquismo en general, con mención a los homosexuales represaliados... y eso que el PSOE (a diferencia de Castro) no fue quien aprobó la represiva ley de Vagos y Maleantes, y técnicamente el partido también fue víctima del franquismo.

3-Y han hecho más que pedir disculpas: Las leyes de Memoria Histórica (2007) ha proporcionado indemnizaciones a homosexuales represaliados y la ley de Memoria Democrática (2022) ha anulado sus condenas y la de otros grupos perseguidos.

https://www.elconfidencial.com/espana/2012-05-13/zapatero-indemnizo-a-mas-de-cien-homosexuales-condenados-por-la-ley-de-vagos-y-maleantes_226398/
https://www.rtve.es/noticias/20221020/asi-ley-memoria-democratica-entra-hoy-vigor-del-mapa-desaparecidos-a-anulacion-condenas-franquistas/2406472.shtml

Ysinembargosemueve

#62 En Cuba la ley duró poco y en España, con el PSOE en el gobierno, siguió vigente varios años.

r

#71 NO.

La Ley de vagos y maleantes del franquismo fue reformada casi por unanimidad en diciembre de 1978, eliminando los artículos que penalizaban la homosexualidad (y la mendicidad, consumo de drogas, prostitución y la venta de porno). Esa reforma despenalizó la homosexualidad en España.

Que lo que quedase de ley siguiese vigente hasta 1995 no cambia ese hecho.

PD: "En Cuba la ley duró poco" Dos putas décadas.
Casi lo mismo que España, donde la penalización de la homosexualidad duró 24 años (1954-1978).

Ysinembargosemueve

#73 Jajajajajajajajaja

rojo_separatista

#27, #47, una característica esencial de los comunistas es la constante capacidad de autocrítica, así que sí, no tengo problemas en criticar cómo se trató a los homosexuales en la Unión Soviética y el resto de estado socialistas y suscribo todas y cada una de las palabras que dijo Fidel en este sentido, era básicamente un problema cultural heredado que los comunistas no supieron superar:

Estauracio

#63 una característica esencial de los comunistas es la constante capacidad de autocrítica,
lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol lol

Estauracio

#6 La persecución de los homosexuales en la Unión Soviética comenzó pocos años después del ascenso de Stalin al poder y continuó, aunque de forma atenuada, hasta la caída de la propia Unión Soviética. En algunas naciones surgidas tras la desintegración de la URSS, persisten aún persecuciones que van del internamiento en campos de trabajo forzado a la cárcel.

https://es.m.wikipedia.org/wiki/Persecuci%C3%B3n_de_los_homosexuales_en_la_Uni%C3%B3n_Sovi%C3%A9tica

Enésimo_strike

#47 negativozando un extracto literal de la wikipedia

Estauracio

#50 Así son.

Enésimo_strike

#51 y lo mejor es el nick, hace lo opuesto a lo que hace referencia.

rojo_separatista

Pocas cosas tienen un balance neto tan positio como el uso de la IA. Lo mucho o poco que pueda contaminar lo compensará de sobras con el progreso tecnológico que representará en campos como la gestión energética.

rojo_separatista

Luego serán de los que dicen que los inmigrantes se tienen que integrar.

#8 👍 👍 👍 👍 👍 👍

T

#8 y ya sabèis, amigüitos: aunque todos tus ancestros y tù mismo seàis valencianos, si no quieres hablar valenciano o nunca os ha interesado aprenderlo entonces sois inmigrantes porque a uno en menèame le sale de los huevos que sea asì... por supuesto, su comentario marginador y clasista no es nada fascista porque en su alias dice que es rojo...

DocendoDiscimus

#17 Y ya sabéis, amigüitos: aunque todos tus ancestros y tú mismo seáis madrileños, si no queréis hablar castellano o nunca os ha interesado aprenderlo entonces sois inmigrantes porque a uno de menéame le sale de los huevos que sea así... por supuesto, su comentario marginador y clasista no es nada fascista porque en su alias dice que es rojo...

Quería comprobar como sonaba tu comentario cambiando "valenciano" por "madrileño", y efectivamente, sigue siendo la gilipollez más grande que he leído en este hilo de comentarios. Mi abuela, que era de León, siempre decía: "allá dónde fueres, haz lo que vieres", que viene a significar que cuando viajas, o migras (como le tocó hacer a ella), te tienes que integrar en la sociedad que te acoge. ¿Se habla valenciano en Valencia? Sí. Pues lo aprendes

Cc #8

f

#18 eso es cierto hasta que viene un garrulo (término técnico) y te dice que "en España se habla español". Entonces lo que explicas ya no es nunca mas cierto, el sentido común se va a tomar por el ojete, y descubres que... Estas en España wall

DocendoDiscimus

#22 Es duro, pero hay que insistir.

c

#22 ¿Historia o leyenda?.
Dcen que una vez, un español de por, paseaba por el campo y al llegar a una fuenet se dispuso a saciar la sed. Un lugareño amable le indico en su idioma local:
Cavaller, no bega d'eixa font que la seua aigua no és bona i se pot morir.
¿A mi me habla en cristiano, paleto que estamos en España!
Que digo que beba que beba que es muy sana. Le respondio

f

#105 leyenda, seguro

c

#107 po zi

a

#18 ¿Cómo se van a integrar con esa panda de paletos que hablan valenciano? En el fondo, necesitan hablar castellano para sentirse superiores. Aunque en realidad, queden como una panda de mermados mentales incapaces de procesar un idioma tan escandalosamente complicado como el valenciano.

#17 Ya salió el que en cada pueblo hay uno

laserpmagica

#17 Ni inmigrante es un termino degradante ni es el adecuado en ese caso puesto que hay muchos inmigrantes que sí son capaces de aprenderlo. Yo el que usaría en el caso que describes es subnormal.

Anomalocaris

#17 Si no te interesa la cultura de tu tierra, por mucho que hayas nacido en ella, eres extranjero.

rojo_separatista

#32, o colono. Aunque si les dices esto se ofenden.

Lekuar

#17 No has entendido su comentario.

Ludovicio

#17 Nadie te obliga a aprenderlo. Con no despreciarlo es suficiente.

DDJ

#17 Ni has entendido el comentario #8 ni tu respueta tiene sentido aunque #8 hubiese dicho lo que se supone que has entendido

Mangus

#17

armadilloamarillo

#17 Entiendo lo que quieres decir: Los "imperiales" no tienen obligación de conocer otro idioma que no sea el "imperial", pero los de las "regiones" sí tienen esa obligación, por ser "súbditos del imperio".

Igual en 2024 deberíamos ir dejando atrás esa mentalidad de imperios, territorios conquistados, súbditos, esclavos, gentes por civilizar, ciudadanos de primera y ciudadanos de segunda que tan de moda estaba en 1492. Ya sé que algunos soñáis con "la vuelta del imperio en el que nunca se ponía el sol" os tocáis pensando en los tercios y os imagináis con el casco y el uniforme de conquistadores, ganando en épicas batallas de cañones y espadas nuevas tierras para el sacrosanto imperio de los nuevos reyes católicos. Que pensáis que habéis nacido mínimo 300 años demasiado tarde. Pero para eso ya están los videojuegos, no hace falta intentar volver al pasado en la vida real.

m

#8 En realidad quieren que todo el mundo se integre a la idea que ellos tienen de como tenemos que ser. Libertad, pero yo te digo como es esa libertad. Básicamente a eso se reduce todo para la derecha. Haz lo que yo te digo, no lo que yo hago.