Las matemáticas son abstracciones del mundo, ni mas ni menos. Es completamente normal usar ejemplos del mundo real para ilustrarlos. Un problema es que las abstracciones deben de explicarse con mucho cuidado. Una mala explicación, o una simplista aburrida es enseñar mal. Las matemáticas son posiblemente la materia mas difícil de enseñar. No porque sea mas difícil que otras asignaturas en realidad, sino porque mientras otras materias suelen aplicarse a objetos o hechos reales, las matemáticas por si mismas son abstractas y muchos de sus conceptos no existen en el mundo real (o no existen mucho)
Todos conocemos geometría "mas o menos", pero pocos sabemos por ejemplo que lo que conoce la inmensa mayoría de la gente se denomina "geometria euclidiana", creada hace mas de 2000 años en Grecia y que esa "geometria" tiene una serie de axiomas abstractos que
no se aplican en el mundo real.
Y claro, si nos dicen eso, nos hunden. Ahora resulta que todo ese compendio de ideas y formulas "es mentira". Los puntos matemáticos no existe, las rectas perfectas tampoco, el espacio euclideo tampoco. Claro, son unas aproximaciones razonables y útiles en el mundo real, nos dan una definición y unas ayudas
utiles.
Pero eso es solo parte del problema. Las matemáticas están repletas de conceptos que la gente no es que "no entienda", es que no les explican nunca porque son útiles, porque existen. A la gente les hablan por ejemplo de "numeros imaginarios" o "numeros complejos" y lo único que piensan es que son pajas mentales de unos frikis que se dedican a jugar con numeritos, y que hay una conspiración (posiblemente con los reptilianos y los templarios) para torturar a los pobres estudiantes obligandoles a aprender cosas que no existen ni tienen utilidad.
Por supuesto eso es mentira, tanto los números imaginarios como los complejos son útiles en muchos campos reales. El problema es enseñar a la gente de una forma interesante para que sirven todas esas cosas.
Y algo que no se hace pero debería ser
enseñanza obligatoria es corregir lo que se conoce como
anumerismoPorque uno de los grandes fracasos de la enseñanza moderna es precisamente eso: el anumerismo. ¿Que es eso?
El anumerismo es la incapacidad de comprender precisamente conceptos matemáticos simples. No hablo de que una persona no sepa lo que es una probabilidad, o un porcentaje, o sepa un poquito de azar y estadística. Es que hay gente capaz de resolver ecuaciones cuadráticas sin problemas, trigonometría y lo que es ocurra, y es completamente analfabeta para saber
interpretar los datos numéricos.
¿Queréis un ejemplo?, os puedo dar varios. Veamos.
Es frecuente ver a gente que se lamenta de que "les han estafado" en productos financieros. Aducen que se trata de "temas muy complicados" y si bien es cierto que las clausulas de muchos de esos productos hacen que un abogado vea luces de colores, lo básico a menudo es muy simple.
Supongamos que un banco te ofrece por tener el dinero a plazo fijo un 1% de interés anual, y viene un "enterado" que te dice que si lo pones todo en su producto "completamente seguro, fiable y a prueba de bomba" te darán un 5% anual.
La gente como es
anumerica piensa "del 1 al 5 solo hay un 4, no es tanto" Vamos, que nos parece a primera vista que es interesante, que no tiene porque haber problema, que vamos, es un chollo.
Pues no, no es así. Si cobramos una nómina "media" de pongamos 1500 euros mensuales (por poner una cifra), la diferencia entre cobrar un 1% de interes anual sobre un depósito, y cobrar un 5% es la equivalente entre cobrar 1500 euros mensuales, y cobrar 7500.
Hostia... eso es mucho. Ahora imaginaros que teneis el primer sueldo, y que por hacer "un par de tonterías de nada" vais a cobrar lo segundo. A menos que esa "tontería" sea hacer de camello yo no lo veo claro, la diferencia es MUY grande
Pero la gente no lo ve, piensa que "del 1 al 5 solo hay 4, no es tanto". El resultado son millones de personas estafadas, y parte de la culpa no es solo del caballero que los engaña, sino de su propia incapacidad para ver que lo que es ofrecen es una diferencia tan grande que "algo raro tiene que haber"
Otro ejemplo: Preguntas "si lanzo una moneda al aire 10 veces, y sale cara 8 veces y cruz dos veces, cual es la posibilidad de que salga cruz la tirada numero 11"
Ya me veo a la gente haciendo cálculos, cuando la respuesta es "del 50%.
Ah no... que de las 10 tiradas anteriores se deduce que.... ¿se deduce
que?
No se deduce nada. Las tiradas anteriores no influyen ni condicionan la nueva tirada. La gente no entiende a menudo cosas tan treméndamente simples como esas.
Otro ejemplo sencillo. Coge a una clase de niños y les das un bote de mermelada y un metro de esos de costura, de los que tienen centimetros y milímetros, y una calculadora.
Diles que midan el contorno del bote, su diámetro y que calculen el cociente entre ambos. Una enorme mayoría os pondrá algo como "3.14159265359" o incluso mas números. Vale, eso es porque quieren hacerlo
muy bien¿Lo están haciendo estupendamente? No, de hecho con poner un par de decimales sobra. El poner muchos decimales solo indica que su calculadora tiene muchos decimales, no que el resultado sea mas exacto. ¿Porque?
Porque su cinta solo llega a los milímetros, deberán en un momento dado de elegir entre el "milimetro de arriba" y "el de abajo" a la hora de medir. Es el límite de precisión de la medida, y sacar muchos decimales no tiene sentido. El error lo tenemos en la medición que tiene una precisión limitada, sacar un montón de decimales no sirve
absolutamente para nadaNo me extenderé mas, pero si os pondré una cita de un conocido divulgador de las matemáticas: John Allen Paulos
“Usted tiene perfecto derecho a elegir entre conocer las matemáticas o no, pero debe ser consciente de que, en caso de no conocerlas, podrá ser manipulado más fácilmente”.