Cuestion de Principios

Ver el tema anterior Ver el tema siguiente Ir abajo

Cuestion de Principios

Mensaje por CuestionDeFe el Sáb 17 Oct 2009 - 18:52

(10) Cuestión de Principios:

Principio: Fundamento, aseveración fundamental que permite el desarrollo de un razonamiento o estudio científico.

Criterio de Evidencia: El criterio de evidencia afirma que una proposición es verdadera si es evidente, es decir, si se presenta con tanta claridad y distinción a nuestras mentes que éstas no pueden por menos que aceptarla. Por ejemplo, la proposición "Ahora estoy leyendo" es verdadera ya que, para cualquier lector de la frase, la proposición es evidente.

1. Principio de Relatividad: En realidad no es porque "todo es relativo", sino por el principio de relatividad. Galileo Galilei estableció el principio de relatividad por vez primera. Era un principio de relatividad del movimiento:
"Todo movimiento es relativo a un sistema de referencia"
Según esto no podemos determinar si un objeto se mueve o no de modo rectilíneo y uniforme si no tomamos primero un sistema de referencia respecto al cual exista ese movimiento. Se puede resumir en un principio de indeterminación del reposo absoluto, pues si pudiéramos determinar que algo está en reposo absoluto, entonces ya tendríamos un sistema de referencia privilegiado al que referir todos los demás movimiento y el principio de relatividad no sería válido.

2. Principio de Localidad: (Sin esta presunción no se podrían comprobar las leyes). En física, el principio de localidad establece que dos objetos suficientemente alejados uno de otro no pueden interactuar directamente, de manera que cada objeto sólo puede ser influido por su entorno inmediato. En palabras de Albert Einstein sobre este principio. La siguiente idea caracteriza la independencia relativa de objetos que están muy alejados uno de otro en el espacio (A y B): una influencia externa en A no puede influir directamente sobre B; esto es conocido como el principio de acción local, y es empleado una y otra vez en teoría de campos. Si suprimiéramos por completo este axioma, resultaría inviable la idea de la existencia de sistemas semi-cerrados, y no podríamos postular leyes que se pudieran comprobar experimentalmente en el sentido aceptado.
• Realismo local: Es la combinación del Principio de Localidad con la suposición de que todos los objetos tienen sus propiedades antes de que las mismas sean observadas. A Einstein le gustaba observar que la Luna está “ahí fuera” aunque nadie la esté observando.
• Interpretaciones Convencionales de la Mecánica Cuántica (como la de Copenhague donde la función de onda no es real, la interpretación de mundos diversos y la basada en historias consistentes) se rechaza el “Realismo Local”. Las verdaderas propiedades definidas de un sistema físico no existen antes de la medición, y la función de onda es entendida como una herramienta matemática que permite calcular las probabilidades del resultado de los experimentos.
• La interpretación de Bohm: Busca preservar el “Realismo Local”, necesita violar el principio de localidad para lograr las correlaciones necesarias. De hecho, también debe violar el principio de causalidad, violando la teoría de la relatividad especial ya que requiere la propagación de señales reales con velocidades superiores a la de la luz.

3. Principio de Inducción:
Cualquiera sea la forma en que se entienda la inducción, siempre se encontrara que parte de un presupuesto o principio.
• Si de algunos pasamos a todos, es porque creemos que el curso de la naturaleza es uniforme.
• Si del hecho pasamos a su ferocidad, es que creemos que nada de lo que sucede en la naturaleza hubiera podido no suceder, es decir que en la naturaleza todo está determinado
• Si del hecho pasamos a la ley es porque creemos que la naturaleza, toda, obedece a leyes y en todo hecho se expresa una ley.
Regularidad de la naturaleza, determinismo, legalidad; esos son los tres principios presupuestos por la inducción. Esos tres principios pueden ser reducidos al último, ya que en los tres se trata de la afirmación de la existencia de relaciones invariables.
Suponemos que la realidad está regida por leyes que son siempre las mismas, y por eso buscamos las leyes que rigen los hechos de la realidad. Ese principio es indemostrable. Pero no es evidente en sí, mismo. La realidad podría no estar regida por leyes; pero si no admitimos que está regida por leyes no podemos intentar conocerla científicamente, pues la ciencia consiste en la búsqueda de relaciones invariables.
• Critica Contemporánea:
La inducción no es nada más que un acto de adivinación metódicamente dirigido. Para demostrar la falacia de la inducción se invocan ejemplos como el de las gallinas que ante la aparición de una persona acuden a recibir el alimento que se les ha venido dando diariamente; pero un día en vez de recibir el alimento, son atrapadas y degolladas.
Lachelier critico el razonamiento inductivo, considerándolo insuficiente para la explicación de lo real. Para Lachelier el efecto contiene algo más o más complejo que la causa, esa explicación sería insuficiente; ya que habría que completarla con la explicación por las causas finales, entendiendo a la realidad también como un proceso sujeto a planes, ósea a una persecución de objetivos.
• Matemática de Vanguardia gracias a la Analogía:
En matemática, la semejanza de las figuras permite concluir la posibilidad de sus transformaciones comunes; y es por analogía que se extienden a los números fraccionarios, y después a los negativos, etc., las leyes de las operaciones fundamentales solo aplicadas al principio a los números enteros. “La invención en matemática está fundada en la analogía y no en la deducción”. Es la analogía y no la deducción la que permite pasar de un espacio euclidiano a los espacios no euclidianos y hablar de espacios de n dimensiones.
• Analogía:
Relación de semejanza entre cosas distintas. Método por el que una regla de ley o de derecho se extiende, por semejanza, a casos no comprendidos en ella.
• La Inducción enriquece al contrario que la deducción:
Si expreso el juicio inductivo “Todas las S son P”, la inferencia deductiva inmediata que puedo sacar de ella, es que “Algunas P son S”; y si convierto este último juicio obtengo deductivamente que “Algunas S son P”. Ósea que la deducción ha empobrecido nuestro conocimiento de “Todas las S son P”, hemos obtenido que “Algunas S son P”. Claro que la inducción acarrea siempre el problema de que “¿Con que derecho afirmamos más que lo que sabemos?”, ósea ¿con que derecho decimos que si algunos cuerpos caen en el vacío con la misma velocidad, todos caen en el vacío a la misma velocidad? Y ¿con que derecho extendemos esa afirmación al pasado y al futuro?
Desde el punto de vista de la lógica sabemos que un juicio en particular no permite inferir un juicio universal: ni de algunos podemos pasar a todos, ni de lo que sucede a lo que forzosamente ha de suceder, ni de las relaciones en que consiste un hecho a las relaciones invariables en que consiste una ley.

4. Principio de Causalidad: El principio de causalidad postula que todo efecto -todo suceso- debe tener siempre una causa (que, en idénticas circunstancias, una causa tenga siempre un mismo efecto se conoce como "Principio de Uniformidad").
Todo efecto remite a una causa, si se encuentra algún efecto que no sea remitido a alguna causa, el principio queda limitado.
• El Problema de la Causalidad: Cuando un acontecimiento continuamente sucede tras otro, la mayoría de la gente piensa que una conexión entre ambos acontecimientos hace que el segundo suceda al primero. Hume desafió a esta creencia en su primer libro Tratado de la naturaleza humana y más tarde en su Investigación sobre el entendimiento humano. Se dio cuenta de que aunque percibimos que un elemento suceda al otro, no percibimos ninguna condición necesaria y suficiente entre los dos. Y de acuerdo con su epistemología escéptica, sólo podemos confiar en el conocimiento que adquirimos a través de nuestras percepciones. Hume declaró que nuestra idea de causalidad consiste en poco más que la esperanza de que ciertos acontecimientos se den tras otros que los preceden, «No tenemos otra noción de causa y efecto, excepto que ciertos objetos siempre han coincidido, y que en sus apariciones pasadas se han mostrado inseparables. No podemos penetrar en la razón de la conjunción. Sólo observamos la cosa en sí misma, y siempre se da que la constante conjunción de los objetos adquiere la unión en la imaginación». En realidad no podemos decir que un acontecimiento causó al otro. Todo lo que sabemos es con seguridad que un acontecimiento está correlacionado con el otro. Para describir esto, acuñó el término conjunción constante. Que consiste en que cuando vemos cómo un acontecimiento siempre causa otro lo que en realidad estamos viendo es que un acontecimiento ha estado siempre en conjunción constante con el otro. En consecuencia, no tenemos ninguna razón para creer que el primero causó al segundo, o que continuarán apareciendo siempre en conjunción constante en el futuro. La razón por la que presentamos este comportamiento no es que la causa-efecto sea el comportamiento de la naturaleza, sino los hábitos de la psicología humana. Esta concepción le quita toda la fuerza a la causación, y otros humeanos posteriores, como Bertrand Russell han deshechado la misma noción de causación aduciendo que es un tipo de superstición. Pero esto desafía al sentido común, creando el problema de la causación – ¿Qué justifica nuestra confianza en la existencia de una conexión causal y de qué clase de conexión podemos saber? – un problema para el que no se ha encontrado solución. Hume sostuvo que tanto nosotros como otros animales tenemos una tendencia instintiva a creer en la causación debido al desarrollo de hábitos de nuestro sistema nervioso, una creencia que no podemos eliminar, pero que no podemos probar mediante ningún argumento, deductivo o inductivo.
 El Problema de la Inducción: Hume articuló su tesis de que todo el razonamiento humano pertenece a dos clases, Relaciones de ideas y hechos. Mientras que las primeras involucran conceptos abstractos como las matemáticas y están gobernadas por las certezas deductivas, los segundos comportan la experiencia empírica donde todos los razonamientos son inductivos. Dado que de acuerdo con Hume no podemos conocer nada de la naturaleza con anterioridad a la experimentación, incluso un hombre racional sin experiencia «no podría haber inferido de la transparencia y la fluidez del agua que sofocaría su sed, o a partir de la luz y el calor del fuego que le consumiría» Así que todo lo que podemos decir, pensar o predecir de la naturaleza debe venir de la experiencia previa, lo que lleva a la necesidad de la inducción. La inferencia inductiva presupone que se puede confiar en los actos pasados como regla a partir de la que se puede predecir el futuro. Por ejemplo, si en el pasado ha llovido el 60% del tiempo cuando se dan unas condiciones atmosféricas determinadas, entonces en el futuro probablemente lloverá un 60% del tiempo si se dan las mismas condiciones. Pero aún queda el problema de cómo justificar tal inferencia, conocida como el principio de inducción. Hume sugirió dos posibles justificaciones, que sin embargo rechazó.
 La primera justificación descansa en la suposición, tomada como una necesidad lógica, de que el futuro debe de parecerse al pasado. Pero Hume puntualiza que podemos concebir un mundo caótico y errante en el que el futuro no tiene nada que ver con el pasado – o un mundo como el nuestro hasta el presente, que llegado a un punto cambia totalmente. Así que nada hace que el principio de inducción sea una necesidad lógica.
 La segunda justificación, más modesta, apela a los éxitos anteriores de la inducción – en el pasado ha funcionado en la mayoría de las ocasiones, así que probablemente seguirá haciéndolo en el futuro. Pero, como Hume comenta, esta justificación hace uso del razonamiento circular en un intento de justificar la inducción mediante la reiteración, lo que nos devuelve al punto de partida.
A pesar de la crítica de Hume a la inducción, sostuvo que era superior a la deducción en el reino del pensamiento empírico. Tal y como declara: «esta operación de la mente, por la que podemos inferir los efectos de las causas y viceversa, es esencial para la subsistencia de todas las criaturas humanas, es probable que pueda confiarse más en ella que en las falacias de la deducción de nuestra razón, que es lenta en sus operaciones; no aparece en los primeros años de la infancia; y como mucho es, en cualquier edad y periodo de la vida humana, extremadamente proclive al error.

5. Principio de Parsimonia: La navaja de Occam (navaja de Ockham o principio de economía o de parsimonia) hace referencia a un tipo de razonamiento basado en una premisa muy simple: en igualdad de condiciones la solución más sencilla es probablemente la correcta. El postulado es: “No ha de presumirse la existencia de más cosas que las absolutamente necesarias”.
El principio de la Navaja de Occam se utiliza fundamentalmente como complemento de las leyes de la lógica, con el fin de evitar el pensamiento mágico. Según este principio, siempre que se encuentren varias explicaciones a un fenómeno, se debe escoger la más sencilla que lo explique por completo.

6. Principio de Falsabilidad: El principio de falsabilidad exige que una teoría científica de predicciones se pueda falsar, es decir, que se puedan comprobar. Lo que no exige es que sean comprobables con nuestro nivel de tecnología, sino que sean comprobables en general.
• Criterio de Demarcación: El criterio de demarcación o problema de demarcación se refiere, dentro de la filosofía de la ciencia, a la cuestión de definir los límites que deben configurar el concepto "ciencia". Las fronteras suelen establecerse entre lo que es conocimiento científico y no científico, entre ciencia y pseudociencia, y entre ciencia y religión. El planteamiento de este problema conocido como problema generalizado de la demarcación abarca estos tres casos. El problema generalizado, en último término, lo que intenta es encontrar criterios para poder decidir, entre dos teorías dadas, cuál de ellas es más "científica". El teórico del criterio de demarcación, Karl Popper, consideró que sistemas tan conocidos y universalmente aplicados como el psicoanálisis, de Sigmund Freud, y el materialismo dialéctico de Karl Marx, incurrían, en errores de concepto y método que autorizaban a incluirlos, según sus tesis, dentro de la categoría de pseudociencia. Posteriormente, Feyerabend sostuvo, con Imre Lakatos, que el problema de demarcación de distinguir por razones objetivas la ciencia de la pseudociencia es irresoluble y, por lo tanto fatal para la idea de la ciencia de acuerdo a un correr fijo y universal de normas.
 Popper propuso el Falsacionismo como una forma de determinar si una teoría es científica o no. Simplificando, se podría decir que si una teoría es falsable, entonces es científica; si no es falsable, entonces no es ciencia. Algunos han llevado este principio hasta el extremo de dudar de la validez científica de muchas disciplinas (tales como la Macroevolución y la Cosmología Física).
• El Falsacionismo: El falsacionismo, refutacionismo o principio de falsabilidad es una corriente epistemológica fundada por el filósofo austríaco Karl Popper. Para Popper constatar una teoría significa intentar refutarla mediante un contraejemplo. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada. Dentro del falsacionismo metodológico, se pueden diferenciar el falsacionismo ingenuo inicial de Popper y el falsacionismo sofisticado de la obra tardía de Popper y la metodología de los programas de investigación de Imre Lakatos. El problema de la inducción nace del hecho de que nunca podremos afirmar algo universal a partir de los datos particulares que nos ofrece la experiencia. Por muchos millones de cuervos negros que veamos nunca podremos afirmar que "todos los cuervos son negros". En cambio si encontramos un solo cuervo que no sea negro, si podremos afirmar "No todos los cuervos son negros". Por esa razón Popper introduce como criterio de demarcación científica el falsacionismo. Popper en realidad rechaza el verificacionismo como método de validación de teorías. La tesis central de Popper es que no puede haber enunciados científicos últimos, es decir, que no puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos. Para Popper la racionalidad científica no requiere de puntos de partida incuestionables, pues no los hay. El asunto es cuestión de método. Aunque la ciencia es inductiva, en primera instancia, el aspecto más importante es la parte deductiva. La ciencia se caracteriza por ser racional, y la racionalidad reside en el proceso por el cual sometemos a la crítica y reemplazamos nuestras creencias. Frente al problema de la inducción Popper propone una serie de reglas metodológicas que nos permiten decidir cuándo debemos rechazar una hipótesis. Popper propone un método científico de conjetura por el cual se deducen las consecuencias observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica.
• Verificacionismo: El verificacionismo es el término que se usa por oposición al falsacionismo. Si en este último lo que se busca es el hecho observacional que pueda anular la hipótesis inicial (y si no se encuentra, la hipótesis se refuerza de algún modo), en el verificacionismo se considera que han de añadirse hechos observacionales que corroboren la hipótesis, con lo que ésta queda consolidada.

7. Interpretación de la Mecánica Cuántica: Según la interpretación más extendida de la mecánica cuántica sugiere que todo es incierto hasta que lo observamos, y que la observación inevitablemente altera la realidad (otra posibilidad que se está estudiando es la Teoría de la Medición Débil.
• El Problema de la Medida: En mecánica cuántica el proceso de medición altera de forma “incontrolada” la evolución del sistema. Constituye un error pensar dentro del marco de la física cuántica que medir es revelar propiedades que estaban en el sistema con anterioridad. La información que nos proporciona la función de onda es la distribución de probabilidades, con la cual se podrá medir tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso que es indeterminable a priori, lo que algunos denominan azar, ya que habrá distintas probabilidades de medir distintos resultados.
• La Paradoja de Hardy: Nos propone que puesto que nosotros no podemos influir sobre el pasado, al no poderlo modificar, no tiene sentido hablar del pasado ya que no podemos conocerlo puesto que de acuerdo con la teoría cuántica:”Conocer implica cambiar, modificar”.
• Teoría de la Medición Débil: La medida débil es una herramienta por la cual la presencia de un detector es menor que el nivel de incertidumbre alrededor de lo que se está midiendo, por lo que existe un impacto imperceptible en el experimento. “Encontramos que las conclusiones aparentemente paradójicas en la Paradoja de Hardy Paradox pueden, de hecho, verificarse experimentalmente”, dijo Steinberg, “dado que el uso de la medida débil elimina la contradicción”. “Hasta hace poco parecía imposible llevar a cabo la propuesta de Hardy, muchos menos confirmar o resolver la paradoja”, añade. “Por fin hemos sido capaces de hacerlo y aplicar los métodos de Aharonov al problema, demostrado que existe una forma, incluso en la mecánica cuántica, en la que se puede discutir de forma bastante consistente eventos pasados incluso después de que hayan concluido. La medida débil encuentra lo que hay allí sin perturbarlo”.
• Principio de Superposición Cuántica: Superposición cuántica es la aplicación del principio de superposición a la mecánica cuántica. Ocurre cuando un objeto "posee simultáneamente" dos o más valores de una cantidad observable (ejem. la posición o la energía de una partícula). Más específicamente, en mecánica cuántica, cualquier cantidad observable corresponde a un autovector de un operador lineal hermético. La combinación lineal de dos o más autovectores da lugar a la superposición cuántica de dos o más valores de la cantidad. Si se mide la cantidad, el postulado de proyección establece que el estado colapsa aleatoriamente sobre uno de los valores de la superposición (con una probabilidad proporcional al cuadrado de la amplitud de ese autovector en la combinación lineal). Inmediatamente después de la medida, el estado del sistema será el autovector que corresponde con el autovalor medido.
• Ecuación de Schrodinguer: Las soluciones a estas ecuaciones se conocen como funciones de onda, dado que son inherentemente ondulatorias en su forma. Pueden difractarse e interferirse consigo misma, llevándonos a los efectos ondulatorios ya observados. Además, las funciones de onda se interpretan como descriptores de la probabilidad de encontrar una partícula en un punto del espacio dado. Quiere decirse esto que si se busca una partícula, se encontrará una con una probabilidad dada por la raíz cuadrada de la función de onda. En el mundo macroscópico no se observan las propiedades ondulatorias de los objetos dado que dichas longitudes de onda, como en las personas, son demasiado pequeñas. La longitud de onda se da, en esencia, como la inversa del tamaño del objeto multiplicada por la constante de Planck h, un número extremadamente pequeño.
• Principio de Incertidumbre: En mecánica cuántica, la relación de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas (magnitudes complementarias), como son, por ejemplo, la posición y el momento lineal (cantidad de movimiento) de un objeto dado (magnitudes complementarias). En otras palabras, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.
• Coherencia Cuántica:
El comportamiento físico de los bosones resulta ser el contrario de los fermiones. Tienden a ser bosones las partículas más primigenias. Los fotones son así el ejemplo paradigmático de los bosones. No existe principio de exclusión para ellos y su tendencia es a estar en el mismo estado (en las propiedades vibratorias u ondulatorias de su función de onda). Esta "convergencia" de los bosones conduce, por ejemplo en un caso máximo, a un estado de concentración en un mismo estado simple que se conoce como condensación de Bose-Einstein (en la base de la tecnología del láser y en la explicación de fenómenos de superconductividad). En general pueden producirse variadas interacciones entre masas de bosones para entrar en estados globales de vibración unitaria que conocemos como estados de coherencia cuántica. Pero, así como los fermiones tienden a mantener su individualidad ondulatoria (principio de exclusión), los bosones tienden a constituir estados físicos donde la individualidad se diluye en estados cuánticos de conjunto para grandes masas con funciones de onda simétricas.
• Decoherencia Cuántica:
En la mecánica cuántica las partículas son tratadas como ondas que se comportan según la ecuación de Schrödinger. De este modo, este comportamiento entra en contradicción con la mecánica clásica donde es bien sabido que las partículas no presentan fenómenos típicos de las ondas como la interferencia. Cómo es posible que las partículas cuánticas formen cuerpos más grandes que se comportan de manera clásica es un fenómeno que se conoce como decoherencia cuántica.
Este término está íntimamente ligado con la computación cuántica, ya que la decoherencia de los qubits representa un problema. Se basa en que los sistemas físicos no residen aislados sino que interactúan con otros, y esta interacción es la que provoca que se deshagan los estados de superposición de los qubits (mientras no interactúe, es un sistema coherente, es decir, se encuentra en una indefinida superposición de estados). A este intervalo de pérdida de coherencia se le asocia que lo que esencialmente es un sistema cuántico lo podamos describir por medio de variables clásicas.
La decoherencia se debe al acoplamiento del qubit con el entorno (ordenador cuántico). En consecuencia el qubit debe considerarse como un sistema abierto. El acoplamiento del qubit y el ordenador cuántico produce un entrelazamiento entre ambos sistemas que modifica el qubit de forma, a priori, incontrolable. Generalmente se asume que una vez que el qubit ha perdido la coherencia la computación completa falla y, en consecuencia, los resultados que se obtienen no son correctos. En el modelo de computación cuántica los cálculos se realizan aplicando transformaciones unitarias al qubit.
Sin embargo esto sólo se cumple de forma aproximada ya que, debido al acoplamiento entre los dos sistemas, la evolución del qubit generalmente no es unitaria.

8. Principio de Superposición (Interferencia): El principio de superposición de ondas establece que la magnitud del desplazamiento ondulatorio en cualquier punto del medio es igual a la suma de los desplazamientos en ese mismo punto de todas las ondas presentes. Esto es consecuencia de que la Ecuación de onda es lineal, y por tanto si existen dos o más soluciones, cualquier combinación lineal de ellas será también solución.

9. Principio de Dualidad (Onda-Partícula): La dualidad onda-corpúsculo, también llamada dualidad onda-partícula, resolvió una aparente paradoja, demostrando que la luz puede poseer propiedades de partícula y propiedades ondulatorias. De acuerdo con la física clásica existen diferencias entre onda y partícula. Una partícula ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en el espacio caracterizándose por tener una velocidad definida y masa nula.
• Toda la materia presenta características tanto ondulatorias como corpusculares comportándose de uno u otro modo dependiendo del experimento específico (De Broglie).
• Actualmente se considera que la dualidad onda-partícula es un “concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa”.

10. Determinismo Científico:
El determinismo científico es un paradigma científico que considera que a pesar de la complejidad del mundo y su impredictibilidad práctica el mundo físico evoluciona en el tiempo según principios o reglas totalmente predeterminadas y el azar es sólo un efecto aparente.

11. Principio de Autoridad:
El Principio de autoridad es un principio tácito según el cual el nombre válido de una especie biológica era el que le atribuía el máximo especialista en ese grupo. Obviamente, podía existir más de un zoólogo que se considerase a sí mismo como máximo especialista con lo que no existía acuerdo sobre cuál era el nombre correcto de una especie. Ello produjo una gran proliferación de nombres científicos en la literatura zoológica durante el siglo XIX; ello creó una gran confusión entre la comunidad científica y el uso interesado de los nombres por partidarios de éste o de aquél zoólogo, lo que desencadenó la aparición de un Código Internacional de Nomenclatura Zoológica, una herramienta que ha sido aceptada internacionalmente y que tiene como finalidad la estabilidad de los nombres científicos y la determinación del nombre que debe usarse para denominar una especie concreta de animal.
¿Por qué confiar en la ciencia? ¿Será porque la hacen personas muy inteligentes y con doctorado? Así sería si la ciencia se rigiera por el principio de autoridad: la idea de que algo vale o no dependiendo de quién lo diga. Así funcionan la autoridad paternal y la religiosa. La ciencia moderna, en cambio, opta por sustentar sus afirmaciones en evidencia comprobable.
• El Principio de Autoridad en la actualidad científica: Cada científico que proponga una nueva teoría, modelizando un evento o una serie de eventos, debe sustentar sus postulados y reglas de inferencias en conclusiones previamente aceptadas, conclusiones que indefectiblemente no ha podido llevar a cabo completamente él mismo, por lo que debe confía en que los desarrolladores y los que realizaron las comprobaciones pertinentes, son dignos de absoluta confianza. Aun los modelos más simples remitirían a un “Principio de Autoridad”, sea en las premisas lógicas, en la construcción de fórmulas validas, sea en las reglas de inferencias elegidas, etc. por el científico o en la confianza de que ciertas conclusiones (modelos teóricos no comprobados actualmente), serán eventualmente comprobadas.

12. Holismo Confirmacional:
El Holismo Confirmacional argumenta que no es posible probar que un enunciado ha sido falsado. Hay dos aspectos del holismo confirmacional:
• El primero es que las "observaciones dependen de la teoría". Antes de aceptar las observaciones del telescopio se debe mirar la óptica del telescopio, el modo en que está montado, con el fin de asegurar que el telescopio está apuntando en la dirección correcta y que la luz viaja a través del espacio en línea recta (que a veces no es tal, como Einstein demostró).
• El segundo es que la evidencia por sí sola es insuficiente para determinar qué teoría es correcta. Cada una de las alternativas mencionadas podría haber sido correcta, pero sólo una de ellas fue finalmente aceptada.
Que las teorías sólo puedan ser probadas por su relación con otras teorías implica que siempre se puede declarar que los resultados de las pruebas que parecen refutar una teoría científica no la refutan en absoluto. En lugar de eso, se puede sostener que esos resultados chocan con las predicciones porque alguna otra teoría es falsa o desconocida. Quizá el equipo de pruebas esté desalineado o quizá haya materia oscura en el universo que sea la causante de los extraños movimientos de algunas galaxias.El hecho de que no sea posible determinar qué teoría es refutada por datos inesperados; significa que los científicos deben consensuar qué teorías aceptar y cuáles rechazar. La lógica por sí sola no sirve de guía en estas decisiones.

13. Principio Cosmológico:
El Principio Cosmológico exige que el Universo parezca el mismo en todas las direcciones (isótropo) y tenga aproximadamente la misma mezcla de material (homogéneo).
El Principio Copernicano que exige que no hay un lugar en el Universo preferido (es decir, el Universo no tiene "punto de partida").
...
avatar
CuestionDeFe

Cantidad de envíos : 40
Fecha de inscripción : 12/12/2008

Ver perfil de usuario

Volver arriba Ir abajo

Ver el tema anterior Ver el tema siguiente Volver arriba

- Temas similares

 
Permisos de este foro:
No puedes responder a temas en este foro.